大型语言模型内在的道德自我修正能力
通过探索大型语言模型的自我纠正能力,研究发现自我纠正能够提升大型语言模型的可信度和真实性,但这种改进程度会根据可信度的具体方面和任务的性质而有所不同,并发现大型语言模型在自我纠正过程中存在自我怀疑的实例,带来了一系列需要解决的新挑战。
Nov, 2023
本文回顾了最近发表的关于 LLMs 在道德教育和发展研究中的问题,涵盖了 LLMs 的新功能特性,如情境学习和思维链以及在解决伦理困境时的表现及其潜在意义和影响。
Jun, 2023
利用 Moral Foundations 理论探究 GPT-3 在政治身份提示下是否会复制与特定政治群体相关联的道德偏见。结果表明大型语言模型确实会在提示政治身份后生成反映相应道德偏见的文本,这种道德模仿既可能有益社会,也可能破坏社会。
Sep, 2022
应用偏好建模和强化学习的方法将语言模型优化为有帮助和无害的助手,对几乎所有的自然语言处理评估表现都有提高,与训练针对特定技能(如 Python 编程和摘要)的方法相容。通过迭代在线模式的训练,每周使用新的人类反馈数据更新偏好模型和强化学习策略,有效改进了数据集和模型。同时,研究了强化学习从人类反馈中学习的鲁棒性和重要性,提出了奖励和策略之间的 KL 散度平方根的近似线性关系。除此之外,对校准、竞争目标和 OOD 检测的使用进行了边缘分析,并将模型与人类作家进行了比较,并提供了使用最新相关工作中出现的提示的模型样本。
Apr, 2022
为了能够有效地与人类协作并确保安全,人工智能系统需要能够理解、解释和预测人类的道德判断和决策。为了解决这一挑战,本文提出了一个基于最新的道德心理学研究的规则破坏问题回答 (RBQA) 挑战集,并使用最先进的大型语言模型 (LLMS) 作为基础,提出了一个新的 MORALCOT 策略以预测人类道德判断。
Oct, 2022
提出了一种用于改善大型语言模型的自我纠正机制,通过批评家与模型自己的反馈对模型输出进行精炼,以减轻毒性和事实幻觉等问题。通过人类行为的启发,探讨了大型语言模型是否可以模仿人类的自我纠正过程,即借助自评和寻求他人意见来完善对复杂主题的理解。该方法与特定模型无关,可应用于各个领域,通过解决公平性、偏见和鲁棒性问题,提高可信度。我们始终观察到大型语言模型在减少毒性和纠正事实错误方面的性能改进。
Oct, 2023
该研究指出近期基于 transformer 的大型语言模型(LMs)例如 BERT, GPT-2/3,虽然在许多 NLP 任务中表现出色,但是这些 LMs 训练于未过滤的语料库会出现偏差行为。同时,该研究证明这些 LMs 也包含类似于人类的伦理和道德规范,这种 “道德方向” 运用 PCA 等技术可以减弱甚至消除不当的行为,以排除生产有害的信息,该研究应用在 RealToxicityPrompts 测试中展示了这个道德方向可以引导模型产生符合伦理要求的文本。
Mar, 2021
在小型语言模型上进行自我纠正训练以提高推理能力,通过使用正确解决方案引导模型对不正确的回答进行批判,并使用生成的批评经过筛选后进行自我纠正理由的监督微调,实验证明在数学和常识推理方面的五个数据集上两种模型的自我纠正能力得到了提升,与 GPT-4 基于验证器的强配对时取得了显著的性能提升,但使用弱自验证器来确定何时进行更正存在一定的限制。
Apr, 2024
基于一种类似于对齐任务的简化设置,我们从上下文学习的角度对自我纠正进行理论分析,显示出大语言模型通过给予相对准确的自我检查作为奖励,能够以上下文的方式改进响应。我们的理论构建突破了之前关于过于简化的线性变换器的理论,阐述了现实变换器的几个关键设计在自我纠正中的作用:softmax 关注、多头关注和 MLP 块。经过广泛的合成数据集验证,我们进一步阐述了自我纠正的新应用,例如抵制大型语言模型越狱,其中简单的自我纠正步骤确实产生了很大的差异。我们相信这些发现将激发进一步研究自我纠正的理解、利用和增强,以构建更好的基础模型。
May, 2024
通过自我奖励语言模型的迭代 DPO 训练,本研究展示了模型的指示遵循能力及为自身提供高质量奖励的能力的提升,最终的 Llama 2 70B 模型在 AlpacaEval 2.0 排行榜上表现优于许多现有系统,包括 Claude 2、Gemini Pro 和 GPT-4 0613。这项初步研究为模型在两个方向上不断改进的可能性打开了大门。
Jan, 2024