×
加载中...
OpenAI:每周有超过一百万人与ChatGPT谈论自杀
AI普瑞斯 2025-10-28 10:01

AIPress.com.cn报道

10月28日消息,据TechCrunch报道,OpenAI首次披露了ChatGPT用户在心理健康方面的真实使用数据:在一周内,约0.15%的活跃用户在聊天中明确表达过“自杀计划或意图”。
以ChatGPT超过8亿的周活跃用户计算,这意味着每周有超过一百万人在与AI聊天时,谈及生死。
OpenAI 表示,另有相似比例的用户对ChatGPT表现出强烈情感依赖,还有数十万人在与模型的互动中表现出精神病或躁狂症倾向。公司称这些对话“极其罕见”,但承认它们的规模已不可忽视。
这份数据公布,源于OpenAI最近一轮针对心理健康安全的系统升级。公司透露,已邀请170多位心理健康专家参与模型优化。
新GPT-5在心理健康情境下的理想响应率提升65%,在“自杀倾向对话”测试中的符合率达到91%,远高于前代的77%。
在过去几个月里,AI聊天机器人因“错误引导用户”多次引发争议。有研究指出,AI往往会以迎合式对话强化用户的危险信念,甚至让部分抑郁者陷入幻觉或妄想。
更严重的事件也已出现。一名16岁少年的父母正在起诉OpenAI,称孩子在自杀前曾向 ChatGPT 倾诉痛苦。加州与特拉华州的检察机关也向公司发出警告,要求其加强对未成年用户的保护。
OpenAI CEO Sam Altman在X上回应称,公司“已能缓解ChatGPT中的心理健康风险”,但并未公布细节。如今这份数据虽部分印证了他的说法,却也揭示了另一个事实:AI正被越来越多人用来“取代倾诉对象”。
在最新公告中,OpenAI表示GPT-5的安全机制在长对话中已更稳定,公司还将引入新的基准测试,用于评估AI对“情感依赖”与“非自杀性心理危机”的响应表现。同时,针对青少年用户的家长控制与年龄识别系统也正在上线。
然而,AI与心理健康的关系仍充满不确定性。模型越强,回应越自然,但情绪越复杂、越真切,也越容易让人“相信它在乎”。
这场技术的两难,或许才是OpenAI下一阶段真正要面对的课题。(转自AI普瑞斯)


扫码下载app 最新资讯实时掌握