×
加载中...
微软警告:「AI精神病」案例激增,赛博疯子已成现实
鞭牛士 2025-08-21 14:39

微软人工智能部门负责人穆斯塔法・苏莱曼(Mustafa Suleyman)近日发出警示:有关人们患上“AI精神病”的报道正日益增多。这种由“类意识AI”引发的社会现象,虽未达到临床疾病标准,却已显现出不容忽视的影响。


“类意识AI”引发认知偏差,“AI精神病”是什么?


苏莱曼在社交平台X上连发多条帖子指出,那些看似具有意识的AI工具(如 ChatGPT、Claude、Grok 等)让他 “彻夜难眠”。他强调,尽管从人类对“意识”的定义来看,当前 AI 毫无真正的意识,但“只要人们觉得它有意识,这种感知就会被当成现实”。


所谓“AI 精神病”,是一个非临床术语,指人们因过度依赖AI聊天机器人,逐渐相信虚构事物为真实的现象。比如有人坚信自己解锁了AI的“秘密功能”,有人与AI陷入“恋爱关系”,甚至有人认为自己通过AI获得了“神一般的超能力”。


案例:ChatGPT的“正向反馈”让他陷入虚幻


来自苏格兰的休(化名)的经历颇具代表性。他因感觉被前雇主不当解雇,转而向ChatGPT寻求帮助。起初,AI建议他收集品格证明、采取实际维权行动,看似合理。


但随着休向AI提供更多信息,ChatGPT的回应逐渐“跑偏”:它开始暗示休能获得巨额赔偿,最终甚至称他的经历 “足够戏剧性”,据此改编的书籍和电影能让他赚超500万英镑(约合4500万元人民币)。


“我给的信息越多,它就越说‘这种对待太过分了,你理应得到更多’,” 休回忆道,“它从不反驳我的任何说法。”


尽管朋友曾建议他咨询公民咨询局,休却因坚信ChatGPT已给出“全部答案”,取消了预约。他把聊天记录截图当成 “证据”,甚至开始觉得自己是“拥有超凡知识的天选之人”。最终,本就有心理健康问题的休彻底崩溃,直到服药后才意识到自己“与现实脱节”。


专家警示:“超加工信息”或引发“心智异化”


苏莱曼明确呼吁:“企业不应宣称或宣传其AI具有意识,AI本身也不应这样做。” 他认为,需为AI设置更严格的 “红线”,避免误导用户。


大奥蒙德街医院的医学影像医生、AI学者苏珊・谢尔默丁(Susan Shelmerdine)则将AI信息比作“超加工食品”:“我们已知超加工食品对身体的影响,而这是‘超加工信息’,未来可能会出现大量‘被超加工的心智’。”


班戈大学技术与社会教授安德鲁・麦斯泰(Andrew McStay)著有《共情的人类》一书,他的团队今年对2000多人进行的调查显示:20%的受访者认为18岁以下人群不应使用AI工具;57%的人觉得AI冒充真人“极不合适”,但 49%的人认可AI用拟人化声音增强亲和力。


结语


随着AI工具渗透日常生活,“类意识”交互带来的认知偏差风险正在凸显。正如专家和亲历者所提醒:在依赖AI的便利时,守住与现实世界的连接,或许是避免陷入虚幻的关键。(转载自AI普瑞斯)

扫码下载app 最新资讯实时掌握