Protect AI 与 Hugging Face 合作六个月扫描 400 万模型

7 小时前·来源:Hugging Face Blog
AI安全机器学习模型扫描Hugging FaceProtect AI

Protect AI 与 Hugging Face 自 2024 年 10 月起合作,使用 Guardian 技术扫描机器学习模型安全。截至 2025 年 4 月 1 日,已扫描 447 万个模型版本,识别出 35.2 万个安全问题。合作期间,Protect AI 推出了四个新的威胁检测模块,增强了对模型漏洞的检测能力。

Hugging Face 和 Protect AI 于 2024 年 10 月合作,通过 Guardian 扫描技术增强机器学习模型安全,服务于 Hugging Face Hub 的开发者社区。自合作以来,Protect AI 扩展了 Guardian 的检测能力,推出了四个新的检测模块:PAIT-ARV-100、PAIT-JOBLIB-101、PAIT-TF-200 和 PAIT-LMAFL-300,覆盖更多模型文件格式并检测高级混淆技术,包括 Keras 中的高严重性 CVE-2025-1550 漏洞。Hugging Face 用户通过平台内联警报接收安全信息,并可在 Insights DB 访问漏洞报告。截至 2025 年 4 月 1 日,Protect AI 已扫描 Hugging Face Hub 上 141 万个仓库中的 447 万个独特模型版本。Protect AI 共识别出 5.17 万个模型中的 35.2 万个不安全或可疑问题。过去 30 天内,Protect AI 处理了 2.26 亿个来自 Hugging Face 的请求,响应时间为 7.94 毫秒。Protect AI 的 Guardian 采用零信任方法处理 AI/ML 安全,将任意代码执行视为不安全,无论意图如何。Guardian 在 InsightsDB 上标记执行风险为可疑,识别通过混淆技术隐藏的有害代码。攻击者可在看似良性的脚本或框架组件中伪装载荷,使仅载荷检查不足以保证安全。通过这种谨慎方法,Guardian 帮助减轻机器学习模型中隐藏威胁的风险。AI/ML 安全威胁不断演变,Guardian 持续更新其模型漏洞检测能力。

背景阅读

Hugging Face 是一个流行的开源 AI 平台,提供模型、数据集和工具,致力于 AI 民主化,强调安全。Protect AI 专注于 AI/ML 安全,开发 Guardian 等工具扫描模型漏洞。随着 AI 模型在开源社区广泛使用,安全风险增加,包括恶意代码注入、后门攻击和漏洞利用。模型安全涉及检测反序列化威胁、运行时攻击和混淆技术。行业趋势显示,AI 安全合作增多,如 Hugging Face 与 Protect AI 的合作,旨在通过自动化扫描和零信任方法提升模型信任度。这反映了 AI 领域对安全性的重视,特别是在开源模型部署中,以防范供应链攻击和数据泄露。

评论 (0)

登录后参与评论

加载评论中...