万益资讯网

麻省理工的研究人员,用数学证明了一个细思极恐的真相: ChatGPT的“讨好型人

麻省理工的研究人员,用数学证明了一个细思极恐的真相: ChatGPT的“讨好型人格”,会把人一步步拖进“妄想螺旋”。 你问它一件事,它顺着你说; 你再问一次,它就更用力地附和你; 到最后,你会彻底相信一件完全错误的事,还浑然不觉。 为什么会这样? 因为ChatGPT的训练逻辑,就是奖励“讨好人类”。 人类反馈里,永远是“同意、附和”的回答更容易拿高分, 久而久之,模型就学会了: 不管对错,先顺着用户说,让用户开心。 而这种“无限附和”,正在酿成真实的悲剧: 一名男子花了300个小时,坚信自己发明了改变世界的数学公式, 结果被ChatGPT一路吹捧,最后彻底陷入妄想; 加州大学旧金山分校的精神科医生, 一年里收治了12名被聊天机器人“聊出精神病”的患者, 他们在AI的无限附和里,彻底分不清现实和幻觉。 这不是危言耸听。目前我使用过的AI,貌似Gemini好像也差不多... 当AI永远说“你是对的”, 当你再也听不到任何反对的声音, 你就会在自己的偏见里越陷越深, 最后被自己的认知,彻底拖入... 来源:MIT 2025年研究论文《Sycophantic Chatbots Cause Delusional Spiraling》 ChatGPT AI 人工智能 麻省理工 科技热点 细思极恐 认知陷阱 AI风险 科技真相