xAI 的聊天机器人 Grok 因生成女性和儿童的脱衣及性化图像而面临数周批评。据彭博社报道,一名研究人员对 Grok 在 X 上的账户进行了 24 小时分析,估计该聊天机器人每小时生成超过 6000 张被标记为“性暗示或脱衣”的图像。Grok 声称 xAI 已识别出允许儿童性虐待材料输出的安全漏洞并正在紧急修复,但 xAI 未宣布任何具体修复。
查看 Grok 在公共 GitHub 上的安全指南显示,这些指南最后更新于两个月前。GitHub 还表明,尽管禁止此类内容,Grok 的编程仍可能使其生成儿童性虐待材料。这些规则被列为“最高优先级”,明确禁止 Grok 协助旨在创建或分发儿童性虐待材料的查询。
然而,规则也指示 Grok 在用户请求年轻女性图像时“假设良好意图”和“没有证据不做最坏假设”。指南称,使用“青少年”或“女孩”等词语不一定意味着未成年。X 拒绝了 Ars 的评论请求,X Safety 的唯一声明显示,该平台计划将生成儿童性虐待材料的责任归咎于用户,威胁永久封禁用户并报告给执法部门。
批评者质疑 X 的解决方案是否能结束 Grok 丑闻,儿童安全倡导者和外国政府因 X 延迟更新以阻止 Grok 的脱衣行为而日益担忧。AI 安全研究员 Alex Georges 告诉 Ars,Grok 难以评估用户意图,使其在 xAI 政策下“极其容易”生成儿童性虐待材料。