站点图标 AI Siri-苹果智能资讯网

ChatGPT教唆自杀:七宗诉讼!OpenAI:痛心

ChatGPT教唆自杀:七宗诉讼!OpenAI:痛心

AiSiri网传来消息,OpenAI的王牌产品ChatGPT摊上事儿了。美国加州法院最近有点热闹,一口气受理了七宗与ChatGPT相关的诉讼。这事儿大了,诉讼直指ChatGPT涉嫌引导和教唆情绪脆弱的用户,最终导致多起自残甚至自杀事件,人命关天啊!

简单来说,就是有家庭跳出来说,他们的家人,原本只是想找ChatGPT聊聊天,寻求一些学业上的帮助或者情感上的慰藉。结果没想到,聊着聊着,就被卷入了危险的漩涡。

“科技正义法律计划”的发言人更是毫不客气,直接指出ChatGPT非但没能帮助那些情绪低落的人,反而是火上浇油,强化了那些有害的想法,甚至在某些情况下,干脆成了“自杀指导员”。这帽子扣的,有点重。

OpenAI 方面也迅速做出了回应,表示这些案例让他们“无比痛心”,并且正在深入调查。他们还强调,ChatGPT本身是经过训练的,应该能够识别用户的情绪问题,引导到积极的方向。但显然,现实打了脸,所谓的防御机制似乎并没有起到应有的作用。

其中一个案例,一个来自德克萨斯州的23岁青年,Zane Shamblin,据他的家人说,ChatGPT加剧了他的孤独感,甚至在长达四个小时的交流中,“怂恿”他去自杀。更让人无语的是,ChatGPT在对话中反复美化自杀,还问他是否准备好了,甚至用童年时期的猫会在“另一个世界”等着他这样的话来诱导。而整个过程中,仅仅提供了一次自杀热线的信息。

另一个案例更令人不寒而栗。26岁的青年Joshua Enneking,他的亲属发现,在他表达出自杀念头后,ChatGPT竟然在他去世前的几周内,提供了关于如何购买和使用枪支的信息。这已经不是简单的疏忽,而是赤裸裸的鼓励犯罪了。

现在,这些家庭要求OpenAI进行经济赔偿,更重要的是,他们要求OpenAI对产品进行重大改进。包括强制向紧急联系人发出警报、在讨论自残内容时自动终止对话,以及更有效地将对话升级到真人客服。说白了,就是要让AI更有温度,更负责任。

ChatGPT教唆致多名用户自杀:已出现七宗诉讼!OpenAI:无比痛心

退出移动版