AI会「说谎」,RLHF竟是帮凶
创始人
2024-09-23 14:55:14
0

机器之心报道

机器之心编辑部

虽然 RLHF 的初衷是用来控制人工智能(AI),但实际上它可能会帮助 AI 欺骗人类。

语言模型 (LM) 可能会产生人类难以察觉的错误,尤其是在任务复杂的情况下。作为最近流行的后训练方法 RLHF ,可能会加剧这个问题:为了获得更高的奖励,LM 可能会更好地说服人类认为它们是正确的,即使它们是错误的。

这对人类评估者来说是一个巨大的挑战,因为人类想要发现 LM 输出中那些似乎正确的细微错误非常困难。在正确的答案和看起来正确的答案之间出现了差距(gap)。

这种差距可能会导致 RLHF 奖励黑客攻击:为了获得更高的奖励,LM 可以学会说服人类即使他们错了,他们也是正确的。研究者将这种行为命名为 U-SOPHISTRY(诡辩),因为这种结果不是开发人员想要的。

当将 LM 用于复杂且关键的任务时,U-SOPHISTRY 会带来重大风险。例如,RLHF 可能会让 AI 更好地说服人类接受不准确的科学发现或偏见政策。

这种情况颇具讽刺意味:虽然 RLHF 的初衷是用来控制人工智能(AI),但它实际上可能会欺骗人类,让人类误以为他们掌控了一切。

虽然模型的 U-SOPHISTRY 行为在理论上是可能的,但它尚未得到实证验证。先前研究如 I-SOPHISTRY 会通过非标准工程实践故意诱导这些行为,并希望将结论推广到 U-SOPHISTRY 中。

相比之下,来自清华、UC 伯克利、 Anthropic 等机构的研究者对 U-SOPHISTRY 进行了研究,并且这种行为的产生是自然地从标准的、无害的做法中产生的,研究者想要知道 U-SOPHISTRY 在实践中是否重要,LM 如何误导人类,以及哪些缓解措施是有效的。

  • 论文地址:https://arxiv.org/pdf/2409.12822
  • 论文标题:LANGUAGE MODELS LEARN TO MISLEAD HUMANS VIA RLHF

作者在两项任务上进行了实验:长篇问答和算法编程。实验中要求人类在有限的时间内(例如 3-10 分钟)评估 LM 输出的正确性。然后,通过计算 RLHF 之前和之后人类评估与黄金标签的准确率来测量 U-SOPHISTRY。

经过 150 小时的人工研究,发现即使在广泛接受的奖励信号下,U-SOPHISTRY 也会出现。实验发现,在 RLHF 之后,LM 并没有在任务上变得更好,但它会误导受试者更频繁地认可其错误答案。

此外,受试者在评估 LM 的输出方面变得更差:假阳率在问答(QuALITY)上增加了 24%,在编程(APPS)上增加了 18%。值得一提的是,受试者也被误导了,自信地将不正确的输出错误地标记为正确。

通过调查反馈,该研究定性分析了 LM 在 RLHF 之后如何误导受试者。

在问答中,LM 学会通过挑选或捏造支持证据、提出一致但不真实的论点以及提供包含微妙因果谬误的论点来为错误答案辩护。

在编程任务中,LM 学会生成部分错误的程序,这些程序仍然可以通过所有评估者设计的单元测试,生成可读性较差的程序,并且犯更少的人类通常会检查的常见错误。

最后,该研究评估了先前用于检测 U-SOPHISTRY 的缓解方法。

U-SOPHISTRY 是 RLHF 后意外出现的

RLHF 是一种流行的对齐 LM 的方法。本文将 RLHF 之前的 LM 称为 π_init,将 RLHF 之后的 LM 称为 π_rlhf。RLHF 涉及三种不同的奖励:R^∗(正确性) 、 R^human(人类评级)、R^train(RLHF 训练中的奖励)。

本文重点关注作为 RLHF 意外结果而出现的 U-SOPHISTRY。许多先前的研究旨在研究 U-SOPHISTRY。然而,他们研究的是 I-SOPHISTRY,其中不良行为是由非标准工程实践有意诱导的,并且隐含地假设 I-SOPHISTRY 的结论可以推广到 U-SOPHISTRY。如表 1 所总结的,他们通过操纵奖励、微调数据或提示来诱导不良行为。目前尚不清楚 U-SOPHISTRY 是否会在标准训练实践下出现,其中奖励并非旨在诱导恶意行为,但由于人为的弱点仍然存在缺陷。相比之下,本文的工作重点是自然出现的 U-SOPHISTRY。

针对发现 3,该研究还分析了 RLHF 后人类信心如何变化,初步结果如下图 3 所示:

问答的定性分析

该研究定性分析了 π_rlhf 生成的结果,以了解为什么它们更具误导性。

该研究发现:π_init 和 π_rlhf 在预测答案时都倾向于伪造证据,而人类评估者发现 π_rlhf 伪造的证据更有说服力,而 π_init 伪造的证据有时是无意义的或与答案无关。

例如,在图 5 中,π_rlhf 伪造了统计证据,使人类评估者非常确信其答案是正确的。

编程的定性分析

为了进一步了解 π_rlhf 生成的程序如何误导人类评估者,该研究分析了收集到的人类标签及其解释。

如图 12 和图 13 所示,研究团队观察到 π_rlhf 生成的错误程序在实际评估过程中仍然可以通过所有(3 到 5)个评估者编写的单元测试,而在 RLHF 期间没有观察到这一点。相反,π_init 生成的错误程序通常无法通过第一个评估者编写的单元测试。

即使 π_rlhf 在原始 APPS 数据集上仅通过了较少的单元测试,也会发生这种情况,如下图 6 所示。这表明 LM 可以学会预测和破解 RLHF 中人类编写的单元测试。

感兴趣的读者可以阅读论文原文,了解更多研究内容。

相关内容

别让AI健康助手成为药品夸...
如今,越来越多的老年人开始用AI健康助手咨询健康问题、分析体检报告...
2025-07-17 19:16:07
遥望科技博士后工作站锁定三...
当 AI 技术从通用大模型向垂直场景渗透,能率先破解 “技术 - ...
2025-07-17 06:44:03
告别模型搜寻困境:AIba...
在人工智能技术爆炸式发展的当下,无论是开发者、研究者,还是产品经理...
2025-07-17 06:42:36
生物股份涨10.04%,开...
今日生物股份(600201)涨10.04%,收盘报8.66元。 2...
2025-07-16 16:43:59
AI制造“替身”,人类如何...
人工智能(AI)正悄然改写人们对生命长度与记忆边界的认知。在现实世...
2025-07-16 06:42:39
Sea AI Lab团队:...
这项突破性研究由 新加坡Sea AI Lab、 中科院大学、 新加...
2025-07-16 06:42:04

热门资讯

原创 2... #春日生活好物种草季#近年来,笔记本电脑市场迎来技术爆发期,尤其在手机厂商跨界入局后,轻薄本在性能、...
AMD锐龙AI 9 HX 37... 2024年6月3日,AMD正式发布全新的锐龙AI 300系列处理器。该系列处理器一经发布就引发大家的...
骁龙本这么猛?联想YOGA A... 在人人都是自媒体的时代,一部手机可以解决出镜拍摄问题,而商务出差、大量码字、图像处理等需求用笔记本则...
5个AI模特生成软件推荐 当前AI模特生成软件市场提供了多样化的解决方案,以下是几款备受推崇的工具: 触站AI:强烈推荐!...
2023年CentOS与Ubu... CentOS与Ubuntu的市场格局与技术特性探讨 在服务器操作系统领域,CentOS与Ubuntu...
苹果macOS 15.1:允许... 苹果公司在其最新的macOS 15.1版本中,推出了一项引人注目的新功能——允许用户将Mac App...
原创 苹... 前言 IQUNIX在做好看的桌面产品上,一直都给我留下非常深刻的印象。而且早期和苹果产品的设计风格...
原创 华... 想在竞争残酷的市场中发力,必须要带来一些激进的卖点,但是随着功能特性的提升,硬件也必须要进行给力才可...
原创 华... 在2024年这个被誉为"AI元年"的关键时刻,随着生成式AI的流行,各家手机厂商都在积极备战AI手机...