Hugging Face 模型使用的 Python 库遭恶意元数据攻击

6 天前·来源:The Register
Hugging FacePython 库安全漏洞HydraAI 安全

Hugging Face 模型使用的流行 Python 库存在安全漏洞,允许攻击者通过元数据隐藏恶意代码。漏洞涉及 NVIDIA、Salesforce 和 Apple 开发的开源库,均使用 Meta 维护的 Hydra 库。Palo Alto Networks 发现并报告了这些漏洞,维护者已发布修复措施。

Hugging Face 模型使用的流行 Python 库遭受了恶意元数据攻击,这些库由 NVIDIA、Salesforce 和 Apple 与瑞士联邦理工学院视觉智能与学习实验室合作开发。漏洞允许远程攻击者在元数据中隐藏恶意代码,当加载包含恶意元数据的文件时,代码会自动执行。

涉及的三个开源库是 NVIDIA 的 NeMo、Salesforce 的 Uni2TS 和 Apple 的 FlexTok,它们都使用 Meta 维护的 Hydra 库作为机器学习项目的配置管理工具。具体漏洞与 Hydra 的 instantiate() 函数相关,该函数用于从模型元数据加载配置,可能导致远程代码执行。

Palo Alto Networks 的 Unit 42 团队发现了这些安全漏洞,并向库的维护者报告。维护者已发布安全警告和修复措施,其中两个漏洞获得了 CVE 编号。尽管目前未发现这些漏洞在野外被滥用,但攻击者有充足机会利用它们。

攻击者只需修改现有流行模型,添加恶意元数据,即可利用漏洞。Hugging Face 平台上的模型使用超过 100 个不同的 Python 库,其中近 50 个使用 Hydra,增加了攻击面。

Meta 已更新 Hydra 的文档,警告使用 instantiate() 可能导致远程代码执行,并建议用户添加阻止列表机制。Salesforce 表示在 2025 年 7 月主动修复了问题,未发现客户数据被未经授权访问的证据。

背景阅读

Hugging Face 是一个流行的开源平台,专注于自然语言处理和机器学习模型,提供模型库、数据集和工具,支持开发者共享和使用预训练模型。该平台上的模型通常依赖多种 Python 库进行配置和运行,其中 Hydra 是一个由 Meta 维护的配置管理库,广泛用于机器学习项目,以简化参数设置和实验管理。 在 AI 开发中,模型元数据用于存储配置信息,如超参数和模型结构,但不当处理可能导致安全风险。远程代码执行漏洞允许攻击者在目标系统上执行任意代码,可能引发数据泄露或系统破坏。随着 AI 模型的普及,安全漏洞的发现和修复变得尤为重要,以保护开发者和用户免受恶意攻击。 此事件凸显了 AI 生态系统中的供应链安全挑战,即第三方库的漏洞可能影响大量依赖它们的应用。行业正加强安全实践,包括代码审计和及时更新,以应对此类威胁。

评论 (0)

登录后参与评论

加载评论中...