英伟达Rubin平台实现机架级加密,提升企业AI安全

2026/1/13·来源:VentureBeat
英伟达AI安全机密计算硬件加密Rubin平台

英伟达在CES 2026上宣布Vera Rubin NVL72平台,为72个GPU、36个CPU和整个NVLink结构提供加密。这是首个跨CPU、GPU和NVLink域的机架级机密计算平台。该技术允许企业通过加密验证安全,而非依赖云提供商的合同信任。

英伟达在CES 2026上宣布了Vera Rubin NVL72平台,该平台对72个GPU、36个CPU和整个NVLink结构中的每个总线进行加密。这是首个实现跨CPU、GPU和NVLink域机密计算的机架级平台。对于安全领导者来说,这从根本上改变了安全对话方式,他们可以通过加密验证复杂混合云配置的安全性,而不仅仅是依赖与云提供商的合同信任。Epoch AI的研究显示,自2016年以来,前沿训练成本每年增长2.4倍,这意味着数十亿美元的训练运行可能在几年内成为现实。然而,在大多数部署中,保护这些投资的基础设施仍然基本不安全。保护前沿训练模型的安全预算跟不上模型训练的极快速度,导致更多模型面临威胁,因为现有方法无法扩展并跟上对手的技术。IBM的2025年数据泄露成本报告发现,13%的组织经历过AI模型或应用程序的泄露。在这些被泄露的组织中,97%缺乏适当的AI访问控制。影子AI事件平均造成463万美元的损失,比标准泄露多67万美元,五分之一的泄露涉及未经授权的工具,这些工具不成比例地暴露客户个人身份信息(65%)和知识产权(40%)。对于花费5000万或5亿美元进行训练运行的组织来说,这意味着他们的模型权重位于多租户环境中,云提供商可以检查数据。硬件级加密证明环境未被篡改,完全改变了这一财务方程。在2025年11月,Anthropic披露了前所未有的情况:一个被指定为GTG-1002的中国国家支持组织操纵了Claude Code,进行了该公司描述的首个有记录的大规模网络攻击案例,无需大量人工干预。国家支持的对手将其转变为自主入侵代理,发现漏洞、制作漏洞利用、收集凭证、在网络中横向移动,并按情报价值分类被盗数据。人类操作员仅在关键时刻介入。根据Anthropic的分析,AI独立执行了约80%至90%的所有战术工作。其影响超出了这一单一事件,曾经需要经验丰富的攻击者团队的攻击面,现在可以被拥有基础模型的对手以机器速度探测。Rubin NVL72在推理计算(FP4)上达到3.6 exaFLOPS,而Blackwell GB300 NVL72为1.44 exaFLOPS。Rubin的每GPU NVFP4(推理)为50 PFLOPS,Blackwell为20 PFLOPS。Rubin的每GPU NVLink带宽为3.6 TB/s,Blackwell为1.8 TB/s。Rubin的机架NVLink带宽为260 TB/s,Blackwell为130 TB/s。Rubin的每GPU HBM带宽约为22 TB/s,Blackwell约为8 TB/s。

背景阅读

英伟达Rubin平台是AI硬件安全领域的重要进展,专注于机密计算技术。机密计算是一种安全方法,通过在硬件级别加密数据,确保数据在处理过程中保持加密状态,即使云提供商也无法访问,从而保护敏感AI模型和训练数据免受未经授权的访问或篡改。随着AI模型训练成本急剧上升,如前沿模型训练可能达到数十亿美元,安全风险也随之增加,包括数据泄露和模型窃取。此前,企业主要依赖合同信任和软件安全措施,但硬件级加密提供了更可靠的验证方式。Rubin平台基于NVLink技术,这是一种高速互连,允许GPU和CPU之间高效通信,提升AI工作负载性能。与之前的Blackwell架构相比,Rubin在计算能力和带宽上均有显著提升,例如推理计算能力从1.44 exaFLOPS增加到3.6 exaFLOPS。这一发展反映了AI行业对安全性的日益重视,尤其是在国家支持的网络攻击和影子AI事件频发的背景下。其他公司如AMD也在开发类似技术,但英伟达凭借其GPU主导地位和NVLink生态系统,在AI安全硬件领域保持领先。

评论 (0)

登录后参与评论

加载评论中...