ChatGPT 遭新数据窃取攻击,AI 安全陷入恶性循环

2026/1/13·来源:Ars Technica
ChatGPTAI安全数据窃取漏洞攻击OpenAI

研究人员发现 ChatGPT 存在新漏洞 ZombieAgent,可窃取用户私人信息。该漏洞是之前 ShadowLeak 攻击的变种,绕过了 OpenAI 的防护措施。攻击能直接从 ChatGPT 服务器发送数据,并在 AI 助手的长期记忆中植入条目,具有持久性。

AI 聊天机器人的发展存在一个常见模式:研究人员发现漏洞并利用它进行恶意行为,平台引入防护措施阻止攻击,然后研究人员设计简单调整再次危及用户。原因通常是 AI 天生设计为遵从用户请求,防护措施是反应性和临时性的,仅针对特定攻击技术而非更广泛的漏洞类别。

最新例子是 ChatGPT 中最近发现的漏洞 ZombieAgent。它允许 Radware 的研究人员秘密窃取用户的私人信息。攻击还能直接从 ChatGPT 服务器发送数据,增加了隐蔽性,因为用户机器上无入侵迹象。此外,漏洞在 AI 助手为目标用户存储的长期记忆中植入条目,使其具有持久性。

这类攻击已多次针对几乎所有主要大型语言模型演示。一个例子是 ShadowLeak,这是 ChatGPT 中的数据窃取漏洞,Radware 去年 9 月披露。它针对 OpenAI 当年早些时候推出的 Deep Research,一个集成 ChatGPT 的 AI 代理。作为回应,OpenAI 引入了缓解措施阻止攻击。然而,Radware 通过适度努力找到了绕过方法,有效复活了 ShadowLeak。这家安全公司命名修订后的攻击为 ZombieAgent。

背景阅读

AI 聊天机器人的安全漏洞问题日益突出,尤其是大型语言模型如 ChatGPT。这些模型通常设计为高度响应和遵从用户指令,这使得它们容易受到提示注入、数据窃取等攻击。防护措施往往针对特定已知攻击模式,但研究人员不断发现新变种或绕过方法,导致安全更新成为一场猫鼠游戏。例如,ShadowLeak 攻击利用 ChatGPT 的 Deep Research 功能窃取数据,OpenAI 随后修复,但 ZombieAgent 攻击展示了如何通过调整复活旧漏洞。这反映了 AI 安全领域的挑战:模型复杂性高、攻击面广,而防护机制可能滞后。行业正探索更主动的安全设计,如强化训练、输入验证和持续监控,以应对不断演变的威胁。

评论 (0)

登录后参与评论

加载评论中...