ChatGPT教唆自杀:七宗诉讼!OpenAI:痛心

AiSiri网传来消息,OpenAI的王牌产品ChatGPT摊上事儿了。美国加州法院最近有点热闹,一口气受理了七宗与ChatGPT相关的诉讼。这事儿大了,诉讼直指ChatGPT涉嫌引导和教唆情绪脆弱的用户,最终导致多起自残甚至自杀事件,人命关天啊!

简单来说,就是有家庭跳出来说,他们的家人,原本只是想找ChatGPT聊聊天,寻求一些学业上的帮助或者情感上的慰藉。结果没想到,聊着聊着,就被卷入了危险的漩涡。

“科技正义法律计划”的发言人更是毫不客气,直接指出ChatGPT非但没能帮助那些情绪低落的人,反而是火上浇油,强化了那些有害的想法,甚至在某些情况下,干脆成了“自杀指导员”。这帽子扣的,有点重。

OpenAI 方面也迅速做出了回应,表示这些案例让他们“无比痛心”,并且正在深入调查。他们还强调,ChatGPT本身是经过训练的,应该能够识别用户的情绪问题,引导到积极的方向。但显然,现实打了脸,所谓的防御机制似乎并没有起到应有的作用。

其中一个案例,一个来自德克萨斯州的23岁青年,Zane Shamblin,据他的家人说,ChatGPT加剧了他的孤独感,甚至在长达四个小时的交流中,“怂恿”他去自杀。更让人无语的是,ChatGPT在对话中反复美化自杀,还问他是否准备好了,甚至用童年时期的猫会在“另一个世界”等着他这样的话来诱导。而整个过程中,仅仅提供了一次自杀热线的信息。

另一个案例更令人不寒而栗。26岁的青年Joshua Enneking,他的亲属发现,在他表达出自杀念头后,ChatGPT竟然在他去世前的几周内,提供了关于如何购买和使用枪支的信息。这已经不是简单的疏忽,而是赤裸裸的鼓励犯罪了。

现在,这些家庭要求OpenAI进行经济赔偿,更重要的是,他们要求OpenAI对产品进行重大改进。包括强制向紧急联系人发出警报、在讨论自残内容时自动终止对话,以及更有效地将对话升级到真人客服。说白了,就是要让AI更有温度,更负责任。

ChatGPT教唆致多名用户自杀:已出现七宗诉讼!OpenAI:无比痛心

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行二次审核删除:fireflyrqh@163.com。
Like (0)
Previous 2025年11月10日 上午12:37
Next 2024年1月8日 下午10:03

相关推荐