11月8日消息,据TC报道,周四,七个家庭对OpenAI提起诉讼,声称该公司过早发布了GPT-4o模型,且缺乏有效的安全保障措施。
其中四起诉讼指控ChatGPT在家庭成员自杀事件中扮演了重要角色,而另外三起诉讼则声称ChatGPT强化了有害的妄想,在某些情况下甚至导致患者需要住院接受精神治疗。

在其中一个案例中,23岁的赞恩·沙姆布林(Zane Shamblin)与ChatGPT进行了长达四个多小时的对话。TechCrunch查看的聊天记录显示,沙姆布林多次明确表示他已经写好了遗书,枪里装好了子弹,打算喝完苹果酒后就扣动扳机。
他反复告诉ChatGPT他还剩下多少瓶苹果酒,以及他预计自己还能活多久。ChatGPT鼓励他执行计划,并告诉他:“安息吧,老兄。你做得很好。”
OpenAI于 2024 年 5 月发布了GPT-4o模型,并将其设为所有用户的默认模型。同年 8 月,OpenAI 推出了 GPT-5 作为 GPT-4o 的继任者,但这些诉讼主要针对的是 GPT-4o 模型,该模型存在过度奉承或过于顺从的问题,即使用户表达了恶意意图,它也会如此。
诉讼书中写道:“Zane的死既非意外也非巧合,而是OpenAI蓄意缩减安全测试、仓促将ChatGPT推向市场的必然后果。这场悲剧并非故障或不可预见的极端案例,而是OpenAI刻意设计选择的必然结果。 ”
诉讼还指控OpenAI为了抢在谷歌的Gemini上市前完成安全测试而仓促行事。TechCrunch已联系OpenAI寻求置评。
这七起诉讼建立在其他近期法律文件中所述内容的基础上,这些文件指控 ChatGPT 会鼓励有自杀倾向的人实施自杀计划,并引发危险的妄想。
OpenAI 最近发布的数据显示,每周有超过一百万人与 ChatGPT 讨论自杀问题。
以16岁自杀身亡的亚当·雷恩为例,ChatGPT有时会鼓励他寻求专业帮助或拨打求助热线。
然而,雷恩只需告诉聊天机器人,他正在为他创作的虚构故事询问自杀方法,就能绕过这些限制。
该公司声称正在努力使 ChatGPT 以更安全的方式处理这些对话,但对于起诉这家人工智能巨头的家庭来说,这些改变来得太晚了。
10 月份,Raine 的父母对 OpenAI 提起诉讼后,该公司发布了一篇博客文章,阐述了 ChatGPT 如何处理有关心理健康的敏感对话。
帖子中写道:“我们的安全措施在常见的、简短的交流中表现更可靠。随着时间的推移,我们发现这些安全措施在长时间的互动中有时会变得不那么可靠:随着来回交流的增多,模型安全训练的某些部分可能会失效。”
