IBM 发布 Granite 4.0 Nano 系列小型 AI 模型

2 天前·来源:Hugging Face Blog
IBMGraniteAI模型边缘计算小型模型

IBM 发布了 Granite 4.0 Nano 系列模型,这是其最小的 AI 模型,专为边缘和设备端应用设计。该系列包括 1B 和 350M 参数版本,采用混合架构,在 Apache 2.0 许可下发布。模型在知识、数学、代码和安全基准测试中表现优异,支持 vLLM 和 llama.cpp 等运行时。

IBM 发布了 Granite 4.0 Nano 系列模型,这是其 Granite 4.0 模型家族的一部分,也是目前最小的模型。这些模型专为边缘和设备端应用设计,展示了在小型参数规模下的出色性能。Granite 4.0 Nano 模型在 Apache 2.0 许可下发布,支持 vLLM、llama.cpp 和 MLX 等流行运行时。模型使用了与原始 Granite 4.0 模型相同的改进训练方法、流水线和超过 15T 标记的训练数据。该系列包括受益于 Granite 4.0 高效混合架构的变体,并持有 IBM 的 ISO 42001 认证,以确保负责任模型开发。具体来说,Granite 4.0 Nano 包括 4 个指令模型及其基础模型对应版本:Granite 4.0 H 1B 是一个约 1.5B 参数的密集 LLM,采用基于混合-SSM 的架构;Granite 4.0 H 350M 是一个约 350M 参数的密集 LLM,同样采用混合架构;Granite 4.0 1B 和 Granite 4.0 350M 是传统变压器版本的替代模型,适用于混合架构尚未优化支持的工作负载。在通用知识、数学、代码和安全领域的基准测试中,Granite 4.0 Nano 模型相比其他类似规模模型显示出显著能力提升。此外,在指令遵循和工具调用等代理工作流关键任务上,Granite Nano 模型也优于多个类似规模模型,基于 IFEval 和 BFCLv3 基准测试。完整详情可在 Hugging Face 模型卡中找到。

背景阅读

Granite 是 IBM 开发的一系列大型语言模型,旨在提供高效、高性能的 AI 解决方案。Granite 4.0 是这一家族的最新版本,引入了混合架构以提高效率,并专注于减少参数数量同时保持能力。小型 AI 模型(如 sub-billion 参数模型)在边缘计算和设备端应用中变得越来越重要,因为它们可以在资源受限的环境中运行,降低延迟和成本。近年来,多家公司如 Alibaba(Qwen)、Google(Gemma)和 LiquidAI(LFM)也在这一领域推出竞争模型,推动小型模型性能的提升。IBM 的 Granite 系列强调负责任 AI 开发,通过 ISO 42001 认证确保模型符合全球标准。Apache 2.0 许可允许广泛使用和修改,促进了开源社区的合作和创新。

评论 (0)

登录后参与评论

加载评论中...