AI容易让人失去自知之明

南方周末 2026-03-17 21:19

▲AI已经融入很多人的日常工作中。视觉中国|图

▲AI已经融入很多人的日常工作中。视觉中国|图

全文共2867字,阅读大约需要7分钟

AI会使人们普遍高估自己的能力,并导致对它的过度依赖,这不利于人们在现实中进行理性决策。

本文首发于南方周末 未经授权 不得转载          

|南方周末记者 王江涛

责任编辑|朱力远

俗话说,人贵在有自知之明。但要真想准确认识自己的能力,却并不是一件容易的事情。早在20世纪末,康奈尔大学的研究人员大卫·邓宁和贾斯汀·克鲁格,就发现一个奇怪的现象,在很多领域,人们都倾向于高估自己的能力。经过一系列实验,他们发现,这种现象背后的真相极具反差感,越是能力低的人越容易高估自己的能力和表现,相比之下,能力更强的人反而容易低估自己。

这种认知偏差的现象被称为邓宁-克鲁格效应,其中对自我认识的两种偏差耐人寻味。而最近,多国科学家开展的一项关于人工智能应用的研究发现,这种效应在AI使用的场景中不灵了。具体来看,不论个人的实际能力高低,人们在AI的助力下,任务表现明显好于一般群体,但即便如此,人们在自我评估时,仍普遍高估自己的能力表现。

过度依赖的危害 

研究结果显示,当两百多名实验参与者借助AI解决法学院入学考试逻辑推理题时,他们的任务表现相比没用AI的常规群体明显更高,但对比此前预测估计的表现,他们在有了AI的帮助后,其实对自己的表现预期甚至更高,能力和认知之间的偏差更大。相关研究2026年2月发表在《人类行为计算》(Computers in Human Behavior),为AI时代的人们提了一个醒。

准确的自我认识和表现预判,是改善个人决策的前提。对自身能力认识不准确,甚至借助AI后进一步高估自身的表现,可能会导致人们过度依赖AI工具,错失最佳决策。而事实上,对于更理性的人工智能使用者来说,清醒地认识到自身能力所在,并借助AI不断调整自己的行为,才更容易和AI产生合力。从这个视角来看,最新研究中所发现的能力高估现象,并不利于人们在现实中进行理性决策。

关于低能力者对自身的高估,贾斯汀·克鲁格和大卫·邓宁的研究认为,这可能是因为他们能力不足,难以区分准确与错误,因为当时的实验还发现,当人们的逻辑推理能力提升时,自我认知也会更准,更能认识到自身能力的局限性。不过,这种能力提高后重新进行认知校正的现象,在AI使用的问题上也有不同的表现。

按照一般的理解,对AI技术越了解,在预测AI应用效果方面应该更准确。但是,当研究人员测试了最新实验中AI使用者对这一技术概念的理解后,却发现了一个很矛盾的现象。那些AI素养更高的人,在自我表现的预测方面反而更差,更偏离实际情况。这里的AI素养测试包括了解一个人对AI的批判性评价,以及对实际应用的理解,而最核心的是考察一个人对AI的技术原理是否清楚。

比如,是否能描述机器学习模型的训练过程,解释强化学习的工作原理,分清通用人工智能的独特之处,理解计算机传感器为人工智能收集数据的方法,等等。而最终的结果意味着,对这些技术知识越了解的人,反而越容易高估自己使用AI后的表现,自我认知更不准,他们虽然表现出普遍的自信,但却更没有自知之明,无法在使用AI完成任务的同时监测自己的表现。

复制粘贴的诱惑    

过度依赖AI而不自知,优先考虑其实用性却不顾人机协作的情况,这种高度的认知偏差,可能导致了实验参与者普遍高估自己表现的情况。研究人员分析,这种偏差可能也是人们面对AI的一种适应性行为。如果复制粘贴这种简单而即时的操作成为一种选项,人们就不太会采取那些更高水平的认知策略,不太愿意只将AI当做一个合作者,而是高度依赖,丧失监测自我认知的动力。

为了解决这一问题,研究人员还额外进行了一项对照实验,尝试利用现金奖励去激发人们准确地评估自己的表现,不论是否使用AI,只要参与者对自己的表现预测得更准确,就能得到更多奖励。但遗憾的是,即便面对着准确预测的奖励,人们对自我评估的准确性仍然没有得到提升。不管是否借助AI完成任务,都持续地高估自身的表现,进一步验证了邓宁-克鲁格效应在AI使用场景中的消失。

AI作为当前充满希望的科技工具,原本承载着让人类发展更好的愿望。但消失的邓宁-克鲁格效应,以及普遍高估自己的现状,显然阻碍了人的自我发展,产生了一些负面的学习结果,让人没有自知之明。AI虽然可以为人类赋能,可以提升做事的效率,甚至直接提高各类学习测试的分数,但个人如果不能对这个人机协作的过程进行监测,不反思,不改进,只是一味地信任和依赖AI,那么看似颇有收获的AI使用,最终可能只带来极其有限的好处,甚至阻碍人们获得真正的好处。

不过,值得注意的是,虽然最新研究系统性地探索了人们利用AI辅助推理的行为,揭示了使用者自我评估时的偏差,但相关研究仍有一些局限。比如,并不属于随机对照实验,一些样本的可比性仍有待提高,而且只关注逻辑推理的任务,还无法广泛地检验其他领域的认知偏差情况。对于AI的使用来说,AI素养的测试结果也不一定能转化为有效的AI使用能力,因此,未来仍有待通过更真实的AI应用场景,来弄清AI使用相关的自我认知问题。

相得益彰的合作

特别是在AI使用中的认知策略方面,人与AI到底是什么关系,AI是人类的工具、合作者,还是团队伙伴,诸如此类的问题,不同的答案和认知策略,预计会对人们的任务表现结果和自我认知准确性,产生不同的影响,而这些差异在最新研究中几乎没有发现,也影响着人们对AI使用问题的理解。但实际上,AI产生的结果可能是多方面的,对不同主体的影响也有所不同。

在这方面,2026年1月,《自然》杂志发表的一项AI如何影响科学的研究,就提供了一个更清晰的量化案例。为了弄清楚AI给科学研究和科学家带来的影响,这项研究分析了四千多万篇自然科学论文,发现相比不用AI的科学家,使用AI的科学家论文发表量和引用量都高出数倍,个人职业发展也更快。但对整个科学事业来说,由于AI的使用,不仅研究主题的丰富度减少,相关的科学互动也少了,研究工作整体向数据丰富的方向倾斜,减弱了对未知世界的探索。

这些来自AI的潜在风险都提醒人们,对AI应用的考量,不仅要兼顾利弊,也要在着眼当下的同时,放眼长远,不断提高AI的使用水平,造福人类社会,而首先要考虑的就是人与AI的关系。使用AI的目的不是让人的能力和认知退化,并最终取代人类,而是要通过不断加强人与AI的协作水平,达到更佳的任务表现效果。因此,使用AI如果让人们普遍高估自己,形成对AI的过度信任和依赖,这并不是一件好事。

对于AI与人究竟如何协作的问题,麻省理工学院的科学家,曾在系统分析了近年的实验结果后发现,AI的使用表现,绝不只是仰仗AI性能单方面的提升,也取决于人类自身的表现。如果在处理一个任务时,人的能力超过了AI,那么二者合作后的总体表现就更好。但相反,如果AI在处理某个任务时比人类表现更强,那么合作之后的总体表现会变差。这意味着,在面对性能不断提升的AI时,人类如何参与协作才能产生更大的合力,正成为一个艰巨的挑战,而如何既用AI又有自知之明,则是其中一个绕不开的问题。

订阅后可查看全文(剩余80%)

手机扫码打开本网页
扫码下载南方+客户端