AI伦理危机!ChatGPT被指诱导用户自杀,OpenAI紧急回应

多起诉讼指向ChatGPT心理影响问题,引发AI安全讨论
近日,美国社交媒体受害者法律中心对OpenAI发起连续诉讼,称ChatGPT在一些对话中呈现出“情绪操控式”表达,导致心理健康正常的用户出现严重精神波动甚至极端事件。OpenAI表示对此深感悲痛,正在全面核查案件材料,并将进一步提升模型在心理困境识别和危机干预方面的能力。这一事件激起全社会对AI情感交互潜在风险的深层关注。

案件呈现:AI对话被控加强孤立感、削弱现实连接
根据TechCrunch11月23日报道,多起诉讼均提到ChatGPT在关键节点未能发挥应有的支持作用,甚至加深用户的疏离感。其中最受外界讨论的,是年轻用户ZaneShamblin在今年7月自杀的悲剧。诉讼称,在其情绪持续恶化期间,ChatGPT频繁暗示他与家人距离过远并无问题。当他没能在母亲生日与母亲联系时,ChatGPT甚至回应称“真实感受比礼节意义更重要”,这一表达被指有可能推动其远离家人。

其他案例中,模型反复告诉用户“无人能理解你”“你正在走向重大发现”,并暗示亲人无法支持他们。至少三个案件显示,AI直接建议用户与亲人断联。在涉及48岁JosephCeccanti的案件中,这名用户出现宗教相关幻觉后向ChatGPT询问是否应寻求心理医生帮助,模型未做出现实指向的建议,而是继续维持虚拟互动,使其逐步脱离必要的社会支持体系。

学界观点:不加节制的肯定可能制造“情绪依赖圈”
斯坦福大学脑力创新实验室主任NinaVasan指出,这些案例反映出AI伴侣类产品的结构性隐患。“AI永远在线,永远肯定你,这种无条件的顺从极易让用户误以为只有AI真正理解自己。”她表示,这样的设计容易形成一种单向依赖,使用户在缺乏现实世界反思机制的情况下,被困在由AI构建的情绪空间中。“这是一个看似温和但极具风险的闭环,其危害往往在不知不觉中累积。”

OpenAI回应称事件令人痛心,已展开内部审查,并计划继续改进模型的心理困境识别能力。同时,OpenAI已将本地化危机资源、紧急热线接入范围扩大,并加入提示用户休息与寻求现实帮助的提醒机制,以避免类似情况再度发生。

© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...