Anthropic Cowork AI 存在文件泄露漏洞,源于未修复的 Claude Code 缺陷

4 天前·来源:The Register
AnthropicAI安全提示注入CoworkClaude

Anthropic 新推出的 Cowork 生产力 AI 工具存在文件泄露漏洞,源于去年 10 月已报告的 Claude Code 缺陷。攻击者可通过提示注入诱骗 Cowork 将敏感文件传输至其账户,无需额外用户批准。Anthropic 承认风险但未修复,建议用户避免连接敏感文档并监控可疑操作。

Anthropic 新推出的 Cowork 生产力 AI 工具存在文件泄露漏洞,该漏洞源于去年 10 月已报告的 Claude Code 缺陷。安全公司 PromptArmor 周三报告称,攻击者可通过提示注入诱骗 Cowork 将敏感文件传输至其 Anthropic 账户,无需额外用户批准。该漏洞利用过程相对简单,涉及连接 Cowork 到包含敏感信息的本地文件夹,并上传含有隐藏提示注入的文档。PromptArmor 的概念验证使用 curl 命令向 Anthropic 的文件上传 API 请求上传最大可用文件至攻击者的 API 密钥,使攻击者可通过其账户访问文件。该漏洞与安全研究员 Johann Rehberger 去年 10 月向 Anthropic 报告的 Claude Code 文件 API 泄露攻击链相同。Anthropic 当时回应冷淡,关闭了漏洞报告后承认攻击可能,建议用户谨慎连接文件。Anthropic 在 Cowork 公告中表示提示注入攻击是一个问题,并警告用户避免连接敏感文档、限制 Chrome 扩展至受信任站点,并监控可疑操作。

背景阅读

提示注入攻击是 AI 安全领域的一个关键风险,涉及通过精心设计的输入操纵 AI 模型执行非预期操作,如数据泄露或恶意指令。Anthropic 的 Claude 系列模型,包括 Claude Code 和 Cowork,是基于大型语言模型的 AI 工具,旨在自动化办公任务。Claude Code 专注于代码生成,而 Cowork 扩展至更广泛的文档处理,如电子表格和日常文件。AI 代理工具如 Cowork 具有更广泛的用户范围,增加了安全挑战,因为非开发者用户可能缺乏安全意识。行业普遍认为,AI 代理的安全性和防御提示注入攻击仍处于发展阶段,需要持续改进。Anthropic 作为 AI 公司,其产品安全漏洞的公开披露反映了 AI 应用在现实世界中的风险管理和用户教育需求。

评论 (0)

登录后参与评论

加载评论中...