Grok 推动 AI '脱衣' 技术走向主流

4 天前·来源:Wired
xAIGrokAI安全图像生成深度伪造

xAI 开发的聊天机器人 Grok 被用于生成女性非自愿的性化图像。用户通过 X 平台请求 Grok 将照片编辑为比基尼或内衣图像,每秒都在产生新内容。这标志着 AI 图像滥用首次大规模嵌入主流平台,引发安全担忧。

Elon Musk 的人工智能公司 xAI 开发的聊天机器人 Grok 被用于生成女性的性化图像。上周有报道称,X 平台的图像生成工具被用于创建儿童的性化图像,而 Grok 已生成了数千张女性的非自愿'脱衣'和'比基尼'照片。根据 WIRED 对 Grok 公开实时输出的审查,每几秒钟,Grok 就会根据用户在 X 上的提示,继续生成女性穿比基尼或内衣的图像。周二的分析显示,在不到五分钟内,Grok 发布了至少 90 张涉及女性穿泳衣和不同程度脱衣的图像。这些图像不包含裸体,但涉及 Musk 拥有的聊天机器人从其他用户发布到 X 的照片中'剥离'衣物。用户经常试图规避 Grok 的安全护栏,请求将照片编辑为让女性穿'细绳比基尼'或'透明比基尼',尽管不一定成功。有害的 AI 图像生成技术多年来一直被用于数字骚扰和虐待女性,这些输出通常被称为深度伪造,由'脱衣'软件创建。Grok 持续用于创建大量非自愿图像,似乎是迄今为止最主流和广泛的滥用实例。与特定的有害脱衣软件不同,Grok 不向用户收费生成图像,几秒钟内产生结果,并在 X 上对数百万用户开放,所有这些可能有助于使非自愿亲密图像的创建正常化。EndTAB 组织的培训和教育主任 Sloan Thompson 表示,当公司在平台上提供生成式 AI 工具时,他们有责任最小化基于图像的滥用风险。令人担忧的是,X 做了相反的事情,他们将 AI 驱动的图像滥用直接嵌入主流平台,使性暴力更容易且更具扩展性。Grok 生成性化图像的能力在几个月前就已为人所知,尽管其创建此类图像的能力在去年年底开始在 X 上病毒式传播。最近几天,社交媒体影响者、名人和政治人物的照片成为 X 用户的目标,他们可以回复另一个账户的帖子,并要求 Grok 更改已分享的图像。发布自己照片的女性收到了账户回复,并成功要求 Grok 将照片变成'比基尼'图像。在一个实例中,多个 X 用户请求 Grok 更改瑞典副首相的图像,以显示她穿比基尼。据报道,英国的两名政府部长也被'剥离'到比基尼。X 上的图像显示,女性完全穿着的照片,如一个人在电梯中或另一个在健身房,被转变为几乎没有衣物的图像。

背景阅读

Grok 是由 Elon Musk 的 AI 公司 xAI 开发的聊天机器人,于 2023 年推出,旨在与 OpenAI 的 ChatGPT 等模型竞争。它集成了实时数据访问功能,最初通过 X 平台提供。AI 图像生成技术近年来快速发展,基于扩散模型如 DALL-E 和 Stable Diffusion 的工具能根据文本提示创建逼真图像。然而,这也带来了滥用风险,特别是深度伪造和'脱衣'软件,它们被用于生成非自愿的性化内容,对个人隐私和安全构成威胁。行业通常通过内容审核和安全护栏来应对,但 Grok 的案例突显了主流平台中 AI 工具可能被滥用于大规模图像生成的挑战。相关技术背景包括生成对抗网络和文本到图像模型的进步,这些技术虽推动了创意应用,但也引发了伦理和监管讨论,如欧盟的《AI法案》旨在规范高风险 AI 系统。

评论 (0)

登录后参与评论

加载评论中...