编者按:近日,某平台将“月经”一词划归为“低俗及性暗示内容”的事件持续发酵,引发公众对AI审核机制本质的深刻反思—这究竟是人为规则设定,还是算法自主分类的结果?从医疗诊断到金融决策,从教育辅导到日常娱乐,基于大数据模型的AI应用已无处不在。尤其是,年初Deepseek的爆火让我们看到了,在未来,AI与人类之间的交互将会日益频繁。
然而,这种深度融合亦催生出不容忽视的伦理与技术隐忧:AI系统是否真正客观?其运作是否会重塑人类认知与判断,乃至加剧社会偏见?基于此,Moshe Glickman与Tali Sharot在《Nature Human Behaviour》发表的最新研究 《How Human-AI Feedback Loops Alter Human Perceptual, Emotional and Social Judgements》提供了关键实证。该研究通过严谨的行为实验,首次揭示了人机交互中存在的 “偏见反馈循环”(bias feedback loop)机制:当人类与带有偏见的AI系统互动时,不仅会采纳其偏见,还会进一步内化并强化自身原有偏见,形成双向放大的认知闭环。
这一发现迅速引发学界与社会对 AI伦理及人类认知发展边界 的广泛讨论。研究警示,若放任算法偏见与人脑偏见的共生强化,将导致“雪球效应”—初始细微的认知偏差,可能在循环迭代中演变为系统性社会偏见。
01
研究背景
AI技术的发展为人类生活和学习带来了诸多便利和突破。它能够处理海量数据,发现复杂模式,而且在一些情景下其判断能力在许多领域超越了人类。然而,正如硬币的另一面,AI系统并非完美无瑕。它们在感知、情感等领域的判断可能会出现偏差,这些偏差可能源自训练数据中固有的人类偏见,也可能是因为数据本身的不均衡性。例如,一些AI系统在医疗诊断中可能会对某些人群的疾病风险评估存在偏差,或者在招聘决策中对特定性别或种族的候选人产生不公平的倾向。这种偏差的存在不仅影响了AI系统的决策质量,更引发了人们对AI是否会在与人类的长期交互中进一步影响人类认知和判断的担忧。
02
实验设计
为了深入探究AI与人类交互对人类认知的影响,研究者设计了三个实验,涵盖了1401名参与者。实验设计按照行为测量→算法反馈→认知追踪的路径,设计了情感聚合判断任务(检测情绪感知偏差),随机点运动感知任务(量化视觉判断偏移)和真实世界AI系统嵌入实验(评估社会认知变化)。
实验一:图片情绪判断
研究中,50名参与者被要求快速判断一组由12张人脸组成的图片所表达的集体情绪是倾向于悲伤还是快乐,每张图片仅展示500毫秒。结果显示,参与者存在轻微偏见,倾向于将情感模糊的面孔判断为更悲伤,有53%的图片阵列被判断为更悲伤,而正常情况下应为50%。随后,研究人员利用这些带有3%偏见的人类数据来训练AI。结果令人震惊,AI不仅继承了人类的偏见,还将其放大至15%。当新的参与者与这个经过训练的AI进行互动时,他们判断图片更悲伤的比例从基线的49.9%显著上升至56.3%,并且随着时间推移,这种偏见还在不断加剧。这一发现揭示了AI系统在处理人类数据时,对数据中微小偏见的高度敏感性,它们能够利用这些偏见来提升预测准确性。而人类在与AI交互的过程中,会逐渐学习并内化AI的偏见,从而导致自身偏见的增加,形成一个恶性循环。
在另一项实验中,研究者通过一个视觉任务来验证AI对人类感知判断的影响。参与者需要判断屏幕上从左向右移动的圆点所占的比例。为了探究不同算法对人类判断的影响,研究者精心设计了三种算法:准确算法、存在偏见的算法以及噪声算法。实验结果显示,当参与者与准确算法进行交互时,他们的判断准确性得到了显著提升。然而,当与带有“右移偏见”的AI互动后,情况则截然不同。这个AI总是高估右移圆点的比例,平均偏差达到了约25%。这一发现不仅再次有力地证明了AI偏见对人类判断的显著影响,还揭示了人类在与AI交互时所经历的学习过程。参与者并非简单地模仿AI的判断,而是在与AI的互动过程中,逐渐调整自己的判断标准,从而受到AI偏见的深刻影响。
实验三
除了实验室任务,研究者还将目光投向了真实世界中广泛使用的AI系统—Stable Diffusion。这是一个基于文本提示生成图像的生成式AI系统。在实验中,研究者让参与者利用Stable Diffusion生成“金融经理”的图片,结果发现,生成的图片中有85%是白人男性,这一比例远远超出了现实中44%的实际占比。这反映出在生成高权力和高收入职业的图像时,该系统所呈现的白人男性比例过高,已然凸显出社会中存在的不平衡问题。当100名参与者接触了这些图片后,由于频繁接触到更多的白人男性图片,间接导致他们选择白人男性作为金融经理的比例从32.36%上升到了38.20%。
03
为什么AI导致偏见加重?
数据吞噬:AI放大训练数据中的微小偏见 当 AI 在仅含有轻微偏见(3%)的人类数据集上进行训练时,它会像一台高倍放大镜一样,将这些微小偏见放大数倍,甚至可达 15%。这是因为 AI 在追求预测准确性时,会敏锐地捕捉数据中的任何规律,即使这些规律实际上是偏见。相比之下,人类在相同数据训练后,偏见程度仅维持在 3%,远低于 AI 的放大效果。
权威效应:人类高估AI的客观性 参与者在面对 AI 和人类的建议时,更倾向于采纳 AI 的意见,而非人类的建议。当 AI 的判断与人类判断发生冲突时,参与者改变自己初始决定的比例高达 32.72%,而当面对人类的反对意见时,这一改变率仅为 11.27%。这种较高的顺从性部分源于人类潜意识里对 AI 的一种权威感,认为 AI 更为专业、客观。
隐形教师:人类无意识学习AI的偏见模式 在与 AI 的反复互动过程中,人类并非只是简单地复制 AI 的答案,而是逐渐内化了 AI 的决策模式。在点运动实验中,参与者在看到 AI 的答案之前,就已经形成了带有偏见的判断,这表明他们已经在不知不觉中学会了“像 AI 一样思考”,将 AI 的偏见模式融入了自己的判断体系中。
04
讨论
但为什么人与AI互动会逐渐增强放大这种偏见呢?
研究者解释说,AI可能会机械放大数据中的任何规律,并不断重复。导致出现偏差后,偏差越来越大。但人类与AI不同在于,人类会利用综合经验、常识等因素,对微小偏见具有免疫力。这也是人类互动不会产生偏见增强放大效应的主要因素。
这项研究不仅揭示了AI与人类交互中会产生偏见放大现象,也为之后理解和应对AI技术带来的伦理和社会挑战提供了新的视角。首先,希望通过该研究提醒AI开发者在设计和部署AI系统时必须承担更高责任。AI系统不仅可能自身存在偏见,还可能通过与人类的交互放大人类的偏见,从而对社会公平和正义产生深远影响。例如,在招聘、司法、医疗等领域,如果AI系统存在性别、种族或其他形式的偏见,可能会导致对某些群体的不公平待遇,加剧社会不平等。
其次,这项研究提醒我们关注AI对人类认知发展的潜在影响。尤其是对于儿童和青少年来说,他们的认知和知识体系尚未完全成熟,可能更容易受到AI偏见的影响。因此,如何在教育和成长过程中引导他们正确理解和使用AI技术,避免被AI偏见误导,成为了一个急待解决的问题。
05
结语:人机共生的未来与责任
随着AI技术的不断发展和普及,人机交互将成为我们生活中不可或缺的一部分。然而,正如这项研究所揭示的,AI与人类的交互并非总是有益的。AI的偏见可能会通过反馈环机制放大人类的偏见,从而对人类的认知和判断产生负面影响。因此,我们在享受AI带来的便利和效率的同时,也必须警惕其潜在的风险。
总之,AI技术的发展为我们带来了前所未有的机遇,但同时也带来了新的挑战。只有通过全社会的共同努力,我们才能充分发挥AI的潜力,同时避免其可能带来的负面影响,实现人机共生的美好未来。