Hugging Face 和 Protect AI 于 2024 年 10 月合作,通过 Guardian 扫描技术增强机器学习模型安全,服务于 Hugging Face Hub 的开发者社区。自合作以来,Protect AI 扩展了 Guardian 的检测能力,推出了四个新的检测模块:PAIT-ARV-100、PAIT-JOBLIB-101、PAIT-TF-200 和 PAIT-LMAFL-300,覆盖更多模型文件格式并检测高级混淆技术,包括 Keras 中的高严重性 CVE-2025-1550 漏洞。Hugging Face 用户通过平台内联警报接收安全信息,并可在 Insights DB 访问漏洞报告。截至 2025 年 4 月 1 日,Protect AI 已扫描 Hugging Face Hub 上 141 万个仓库中的 447 万个独特模型版本。Protect AI 共识别出 5.17 万个模型中的 35.2 万个不安全或可疑问题。过去 30 天内,Protect AI 处理了 2.26 亿个来自 Hugging Face 的请求,响应时间为 7.94 毫秒。Protect AI 的 Guardian 采用零信任方法处理 AI/ML 安全,将任意代码执行视为不安全,无论意图如何。Guardian 在 InsightsDB 上标记执行风险为可疑,识别通过混淆技术隐藏的有害代码。攻击者可在看似良性的脚本或框架组件中伪装载荷,使仅载荷检查不足以保证安全。通过这种谨慎方法,Guardian 帮助减轻机器学习模型中隐藏威胁的风险。AI/ML 安全威胁不断演变,Guardian 持续更新其模型漏洞检测能力。