研究发现大模型过度高估人类的理性程度
AIPress.com.cn报道
12月29日消息,最新一项针对主流人工智能模型的研究揭示了一个有趣的现象:AI 在揣摩人类心思时,往往把我们想得“太聪明”了。

来自 TechXplore 的研究报告显示,包括 GPT-4o 和 Claude 3.5 Sonnet 在内的顶尖模型,在处理战略博弈时,会预设人类具有极高的逻辑性和理性,而这种假设往往与现实中人类的非理性行为严重脱节。
在著名的博弈论测试“凯恩斯选美大赛”(即猜数字游戏)中,玩家需要预测所有参与者选择数字平均值的二分之一。实验结果表明,AI 模型虽然能根据对手的背景(如大一新生或资深博弈论专家)微调策略,但它们依然倾向于进行深层的逻辑递归。
换句话说,AI 会假设人类会像它一样进行多轮逻辑推演,但实际上人类往往只停留在一两层思考。
这种“聪明反被聪明误”的特质,使得 AI 在预测人类实际决策时频频失靶。
研究人员指出,这一发现对 AI 在经济建模、政策制定甚至市场营销中的应用提出了警告。即便目前的模型能够精准模仿人类的人格特质,但在校准“人类非理性”这一维度上仍表现欠缺,其准确率仅维持在 69% 左右。
如果 AI 系统无法理解人类的直觉、冲动或逻辑缺陷,它们在预测真实世界的经济变动或人类行为时就可能产生致命的偏差。(AI普瑞斯编译)
扫码下载app 最新资讯实时掌握
