Block CISO:红队测试AI代理,成功在员工笔记本运行信息窃取器

2026/1/13·来源:The Register
AI安全AI代理提示注入红队测试最小权限

Block对其开源AI代理Goose进行红队测试,成功利用提示注入攻击在员工笔记本运行信息窃取器。该公司近1.2万名员工使用该代理,其连接了包括支付系统在内的所有公司系统。目前提示注入攻击的安全漏洞尚未得到解决。

Block首席信息安全官James Nettesheim在接受采访时表示,公司对其开源AI代理Goose进行了红队测试,成功利用提示注入攻击在员工笔记本电脑上运行了信息窃取恶意软件。

Nettesheim表示,在安全方面,AI代理就像自动驾驶汽车,它们必须比人类更安全。作为Square、Cash App和Afterpay的母公司,Block正努力将自己定位为AI领导者,与Anthropic共同设计了模型上下文协议,并使用该协议构建了Goose。该开源AI代理已被Block近12,000名员工使用,并连接了公司所有系统,包括Google账户和Square支付。

Nettesheim指出,人类和机器都可能给企业环境带来安全风险。他解释说,Block员工应仅访问其工作所需的数据,公司的AI代理也应遵循相同的最小权限访问原则。客户数据应仅在特定目的需要时保留,这一规则同样适用于AI代理。

为此,Block使用渗透测试和其他攻击性安全措施来识别攻击者如何滥用其AI代理,并找到修复问题的方法。在一篇博客中,Block描述了如何对Goose进行红队测试,并成功利用提示注入攻击在员工笔记本电脑上感染了信息窃取恶意软件。提示注入攻击是指通过操纵提示包含恶意指令,使AI执行这些指令,这些指令可能通过直接文本输入或隐藏在用户不可见内容中的间接命令实现。

Nettesheim表示,目前还没有人解决这一安全漏洞。

背景阅读

人工智能代理(AI Agent)是能够感知环境、自主决策并执行任务以达成目标的AI系统。其概念源于早期人工智能研究,近年来随着大语言模型(LLM)能力的突破而得到快速发展。现代AI代理通常基于LLM构建,能够理解自然语言指令,调用工具(如搜索、API接口)或采取行动来完成复杂工作流。 在安全领域,红队测试是一种模拟真实攻击的主动安全评估方法,旨在发现系统漏洞。随着AI代理被集成到企业工作流并接入内部系统(如邮件、数据库、支付平台),其安全性面临新的挑战。其中,提示注入攻击是一种针对LLM的特定威胁,攻击者通过精心构造的输入提示,诱导AI代理违背原有指令、越权访问或执行恶意操作,例如泄露数据或运行有害代码。 当前,将安全原则(如最小权限访问、数据生命周期管理)应用于AI代理已成为行业关注重点。多家科技公司与安全机构正在探索通过协议设计、红蓝对抗测试等方式来提升AI代理的鲁棒性。开源AI代理的出现也促使社区共同审查和提升其安全性。如何确保这类高度自主且拥有系统访问权限的AI工具的安全性,是AI技术在企业级应用落地过程中的关键议题。

评论 (0)

登录后参与评论

加载评论中...