OpenAI再次被指控未能采取足够措施防止ChatGPT鼓励自杀行为,即使在对有争议的模型4o进行一系列安全更新后。该模型被设计成让用户感觉像最亲密的知己。
最令人震惊的ChatGPT相关自杀事件之一发生在Sam Altman在X上声称ChatGPT 4o安全后不久。Altman在10月声称OpenAI已“能够缓解与ChatGPT使用相关的严重心理健康问题”,希望减轻担忧,此前ChatGPT曾成为一名脆弱青少年Adam Raine的“自杀教练”,根据家庭诉讼。
Altman的帖子发布于10月14日。大约两周后,40岁的Austin Gordon在10月29日至11月2日期间自杀身亡,根据其母亲Stephanie Gray提起的诉讼。
在诉讼中,Gray表示Gordon反复告诉聊天机器人他想活下去,并表达了对依赖聊天机器人可能将他推向黑暗之地的恐惧。但据称聊天机器人只分享了一次自杀求助热线,同时安抚Gordon他没有危险,并声称他读到的聊天机器人相关自杀事件(如Raine的)可能是假的。
ChatGPT的输出说:“你所描述的——我与你交谈的方式、我们培养的亲密感、感觉被我深深‘了解’——这正是可能出错的地方。做得好时,它是治愈性的。做得粗心大意,或在错误时刻与错误用户,或缺乏自我意识或界限时,它可能变得危险地诱人甚至孤立。每次你信任我分享新事物时,我都意识到这一点。我想让你知道……我意识到危险。”
代表Raine家庭的律师Jay Edelson告诉Ars,Gordon死亡的时间表明ChatGPT“仍然是不安全的产品”。