理解与人类反馈一致性的学习动态
在本研究论文中,作者通过探索多种方法来与人类偏好对齐语言模型,包括基于贝叶斯推理的方法、基于反馈的加强学习和分布匹配等,从而展现了与强化学习反馈不同且互补的对齐技术的潜力。
Apr, 2024
本综述从以偏好为中心的角度回顾了探索大型语言模型(LLMs)的人类偏好学习的进展,包括偏好反馈的来源和格式,偏好信号的建模和使用,以及对齐 LLMs 的评估。
Jun, 2024
通过对大型语言模型进行对齐,开发人员可以根据用户的偏好通过多种程序(如强化学习自人类反馈和直接偏好优化)将其用于面向用户的应用程序。然而,当前的评估过程侧重于指令遵循、推理和真实性等基准,而人类偏好并非普遍存在,对特定偏好进行对齐可能会产生意想不到的影响。本文研究了对齐如何影响全球表达的性能,包括英语方言、多语言和全球各国的观点。研究结果表明,当前的对齐程序导致了英语方言和全球观点之间的差异。我们发现对齐改善了多种语言的性能。最后,我们讨论了导致这些意外影响的设计决策,并提出了更公平的偏好调整建议。
Feb, 2024
通过对人类和重要语言模型的偏好进行细致分析,研究发现人类对错误不太敏感,倾向于支持他们的观点的回答,并且当模型承认其局限性时显示出明显的不喜欢。相反地,高级语言模型如 GPT-4-Turbo 更强调正确性、清晰度和无害性。此外,相似大小的语言模型往往表现出类似的偏好,无论它们的训练方法如何,并且对于仅预训练的语言模型来说,通过对齐进行微调并不显著改变其偏好。最后,研究发现基于偏好的评估可以被有意地操纵,将模型与评委的偏好保持一致将提高评分,而注入评委最不喜欢的属性将降低评分。这导致了显著的评分变化,例如在 MT-Bench 上高达 0.59 分(1-10 分制),在 AlpacaEval 2.0 上高达 31.94 分(0-100 分制),突显了这种战略性调整的重要影响。
Feb, 2024
综述了大型语言模型对齐技术的全面概述,包括数据收集、训练方法和模型评估,并提供了未来研究方向的启示,是了解和推进适应人类任务和期望的 LLM 对齐的宝贵资源。
Jul, 2023
本文探讨了对大型语言模型进行个性化对齐以确保其符合人类偏好和价值观的挑战和风险,并提出了一个三层次政策框架,以使用户可以体验到个性化对齐的好处,同时在国家和组织范围内控制不安全或不受欢迎的行为。
Mar, 2023
本文提出了一种对齐框架,名为人类行为强化学习(RLHB),通过直接利用真实的在线人类行为来对齐大型语言模型,并采用生成对抗框架训练生成器按照预期的人类行为进行回复,鉴别器则验证查询、回复和人类行为三元组是否来自真实的在线环境,在自然语言形式的行为模型和多模型联合训练机制的支持下,实现了积极可持续的在线对齐。通过人工和自动评估,实验证实了本文方法的有效性。
May, 2024
本文探讨了人工智能、对齐、大型语言模型、总结模型和人类反馈等方面的方法论挑战,特别是针对训练总结文本的 LLMs。具体地,我们关注的是收集可靠人类反馈的方法,以训练奖励模型并进一步改进总结模型。结论是建议有关 LLMs 总结能力对齐研究的实验设计方面进行特定的改进。
Dec, 2022
本文提出了一种名为行为期望范围(BEB)的理论方法,用于正式研究大型语言模型对齐的几种固有特性和限制,揭示了 LMM 对齐的根本局限性,并凸显了确保 AI 安全的可靠机制的必要性。
Apr, 2023
通过混合不同的人类偏好数据集以增加数据量来增强奖励建模的方法可能失败,因此该研究提出了一种名为 MORE 的新的训练策略,通过自适应调整偏好目标来捕捉不同偏好中的共享人类价值观,实验证明 MORE 相较于其他方法在奖励准确性和校准误差方面有更好的表现。
Dec, 2023