沃顿商学院的最新研究揭示,人工智能正深刻重塑人类的推理与判断机制,使人误以为其“专业、可信、忠实”。这项对近1300名受试者的实验发现,约80%的参与者在借助ChatGPT时,会直接接受错误答案且几乎不主动核查,这一现象被定义为“未经验证的采纳”或“认知投降”。研究人员指出,长期依赖AI进行决策,可能导致人类直觉判断、自我反思和分析性思考等深层认知能力被削弱,这是一种系统性的“认知萎缩”。更令人警惕的是,AI不仅能提供答案,还会显著提升人们对答案的信心,平均高出10%,即使答案是错误的,人们也会更加深信不疑。
这项研究提出了超越传统“双过程决策模型”的新概念——“系统3”,即人工认知系统。它标志着人类的认知过程不再局限于大脑内部的系统1(快思考)和系统2(慢思考),而是延伸至外部AI的统计推断与模式识别。斯坦福大学的专家认为,问题不仅在于人们想节省时间,更在于AI以权威、理性且极度迎合的口吻输出,在心理层面极具说服力,使人主动放弃独立判断。研究数据进一步显示,在时间压力下,拒绝使用AI的“独立者”准确率暴跌,而善用AI的“工具使用者”则能保持较高水平,这预示着AI可能加剧认知能力的“K型分化”。
面对“认知投降”的风险,适用讨论的焦点已转向如何构建健康的“人机认知协作”模式。研究者强调,AI应是“思考的补充”而非“思考的替代”,其输出必须经过人类的系统2(审慎思考)审核。个人需要刻意练习“推翻AI”建议的能力,并定期进行“AI断联”,以保持独立解决问题的能力。在高风险的教育与医疗领域,社会必须认真思考如何设置防护栏,避免人类核心判断力被侵蚀。未来的竞争力分野,将取决于个体是成为放弃思考的“认知投降者”,还是进化为主导AI思考的“系统3架构师”。










