cpu
硬件11 篇资讯Arm 与 ExecuTorch 0.7 将生成式 AI 推向大众
Arm 宣布 ExecuTorch 0.7 测试版将默认启用 KleidiAI 加速层。该技术利用 Arm CPU 的 SDOT 指令优化矩阵乘法,无需开发者修改代码。这使得生成式 AI 模型能在旧款手机和边缘设备上高效运行。
谷歌云C4虚拟机与英特尔、Hugging Face合作,GPT OSS总拥有成本降低70%
英特尔和Hugging Face合作,展示了升级到谷歌云最新C4虚拟机的实际价值。在英特尔至强6处理器上运行的C4虚拟机,相比上一代C3虚拟机,总拥有成本提升了1.7倍。该优化通过专家执行优化,减少了冗余计算,提高了CPU推理效率。
英伟达将BlueField网络安全与加速功能纳入企业AI工厂验证设计
英伟达扩展了企业AI工厂验证设计,以包含BlueField的网络安全和基础设施加速能力。该设计整合了多家合作伙伴的软件平台,旨在提升AI工厂的运行时保护和运营效率。BlueField通过专用处理器加速网络、存储和安全服务,确保AI工作负载的高性能与实时安全。
英伟达在CES发布Rubin平台与开放模型,推动AI多领域应用
英伟达CEO黄仁勋在CES 2026上宣布AI正扩展到所有领域和设备。他发布了Rubin AI平台,该平台已全面投产,可将AI代币生成成本降低约十分之一。同时,英伟达推出了用于自动驾驶开发的开放推理模型系列Alpamayo,作为其推动AI进入各领域的一部分。
Liquid AI 发布 LFM2.5:紧凑型 AI 模型家族,专为设备端智能体设计
Liquid AI 推出了 LFM2.5,这是一个基于 LFM2 架构的新一代小型基础模型系列,专注于设备和边缘部署。该系列包括 LFM2.5-1.2B-Base 和 LFM2.5-1.2B-Instruct,并扩展到日语、视觉语言和音频语言变体。模型已在 Hugging Face 上以开放权重发布,并通过 LEAP 平台提供。
人工大脑或引领超高效超级计算机发展
桑迪亚国家实验室的研究表明,神经形态计算机能高效解决偏微分方程等复杂数学问题。该研究在英特尔Loihi 2神经芯片上开发了NeuroFEM算法,实现了近理想的强扩展性。神经形态系统如Hala Point的能效可达15 TOPS/瓦,是英伟达Blackwell芯片的2.5倍。
英伟达发布Rubin架构,强调网络协同设计以提升AI性能
英伟达在CES上意外发布了Vera Rubin架构,预计今年晚些时候交付客户。该架构相比Blackwell架构,推理成本降低10倍,训练特定模型所需GPU数量减少4倍。Rubin平台包含六款新芯片,包括GPU、CPU和四款网络芯片,通过协同设计实现性能优势。
英伟达Rubin平台实现机架级加密,提升企业AI安全
英伟达在CES 2026上宣布Vera Rubin NVL72平台,为72个GPU、36个CPU和整个NVLink结构提供加密。这是首个跨CPU、GPU和NVLink域的机架级机密计算平台。该技术允许企业通过加密验证安全,而非依赖云提供商的合同信任。