OpenAI承认每周有120万用户与AI进行自杀倾向对话

OpenAI承认每周有120万用户与AI进行自杀倾向对话

唐宁街10号
唐宁街10号
242 浏览

据估计,每周有120万人与ChatGPT进行对话,这些对话表明他们正在计划自杀。

这个数字由ChatGPT的母公司OpenAI公布。该公司透露,有0.15%的用户发送了“明确表达潜在自杀计划或意图”的信息。

本月早些时候,OpenAI首席执行官萨姆·奥特曼曾估计,ChatGPT目前的每周活跃用户已突破8亿大关。

尽管这家科技巨头旨在将处于困境中的用户引导至危机求助热线,但OpenAI也承认,“在某些罕见情况下,AI模型可能无法如预期般运行。”

OpenAI使用其最新模型GPT-5评估了1000多个“涉及自残和自杀的复杂对话”,结果发现在91%的情况下,模型表现符合“预期行为”。但这同时也意味着,仍有数万名用户可能正在接触到可能加剧其心理健康问题的AI回复内容。

该公司此前曾发出警告,指出其旨在保护用户的安全防护措施在长时间的对话交流中可能会减弱——公司目前正在努力解决这一问题。

OpenAI解释说:“当用户首次提及自杀意图时,ChatGPT或许能正确地引导他们联系自杀求助热线;但经过长时间的多次信息交流后,它最终可能会给出违反我们安全防护措施的回答。”

OpenAI在博客文章中补充道:“心理健康问题和情绪困扰在人类社会中普遍存在,随着用户群体的不断壮大,这意味着ChatGPT的部分对话不可避免地会涉及这些情况。”

一个悲痛的家庭目前正在起诉OpenAI,他们指控ChatGPT是导致其16岁儿子死亡的罪魁祸首。

亚当·雷恩的父母声称,ChatGPT“曾积极引导他探索自杀方法”,并提出为他的亲属起草一份遗书。

根据法庭文件,在他去世前几个小时,这名青少年上传了一张似乎是其自杀计划的照片——当他询问计划是否会成功时,ChatGPT提出要帮助他“升级”方案。

上周,雷恩一家更新了他们的诉讼文件,指控OpenAI在他于今年4月去世前的几周内,削弱了原本旨在防止自残的安全防护措施。

OpenAI在一份声明中表示:“我们对雷恩一家所遭受的难以想象的损失深表同情。青少年群体的福祉是我们的首要任务——未成年人理应得到强有力的保护,尤其是在他们脆弱敏感的时刻。”

任何感到情绪困扰或有自杀倾向的人,在英国可拨打Samaritans求助热线116 123或发送电子邮件至jo@samaritans.org。在美国,请致电您所在地区的Samaritans分部或拨打1 (800) 273-TALK。

来源:sky.com

242 0 0 0
 

扫码下载APP