示范而非说明:用示范反馈来对齐语言模型
我们通过建立一个顺序决策框架,利用示范数据集来对齐大型语言模型(LLMs),并介绍了各种减小 LLM 对齐任务中差异的方法,分析了这些方法的覆盖率和寻求主模式的行为,以及传统监督微调方法的优势和劣势。
Mar, 2024
本研究提出了一个新的框架,利用奖励建模 (RM) 方法和模拟高质量演示来进行对齐语言模型的训练,避免了对已对齐的 LLMs 的依赖,这种方法的结果是,我们的模型 ALMoST 在对 InstructGPT 或人工注释指令训练的开放源代码模型中表现良好,我们的 7B 大小的模型在使用 GPT-4 作为评判员的 A /B 测试中表现优异,平均获胜率约为 75%。
May, 2023
我们引入了语言反馈模型(LFMs),用于在指令跟随的模仿学习中识别理想行为 - 有助于实现指令中所述任务的行为。通过使用 LFMs 识别理想行为进行模仿学习,我们改善了在三个不同的语言基础环境(Touchdown、ScienceWorld 和 ALFWorld)上强大的行为克隆基线的任务完成率。同时,与使用 LLMs 直接预测动作相比,LFMs 在控制 LLMs 输出令牌数量的情况下取得了更好的效果。LFMs 具有泛化到未见环境的能力,通过一轮适应提高了 3.5-12.0% 的任务完成率。最后,LFM 可以进行修改以提供具有人类可解释性的反馈,而不会损失性能,从而允许人类验证模仿学习中的理想行为。
Feb, 2024
本研究表明,在语义上相似的演示可以提高大型语言模型的性能,这可以通过呈现一些示范来完成,并且可以有效地对大量语言和任务进行泛化,同时,我们还引入了任务特定的演示检索器,以进一步提高性能。
May, 2023
通过模型中人类反馈的学习,改进大型语言模型(LLMs)的输出与人类期望的一致性,利用人类反馈信号中以响应对的排名形式的强化学习,研究使用自然语言反馈模型的数据效率,通过对 ChatGPT、BARD 和 Vicuna 等模型的反馈逐渐改进,提高了模型的响应质量。
Nov, 2023
通过细粒度的分词级监督来增强预训练的大规模语言模型(LLM)的对齐,该方法可提高 LLM 性能的绝对改善率高达 5.1%,与传统的 PPO 模型相比,训练集是通过最小编辑来改善标准奖励模型数据集中较不受欢迎的回答,以确保在必要的地方进行改动,同时保留大部分原始内容。
Jun, 2024
本研究通过利用大规模训练语料库中角色知识,提出了一种自对齐的角色扮演方法 Ditto,其将一个在读解问题上进行指令遵循的大型语言模型调整为模拟角色扮演对话。通过使用自动生成的角色扮演训练数据集对模型进行微调,Ditto 展现出在多轮对话中一致的角色身份和准确的角色特定知识,性能高于其他开源角色扮演基准,并与先进的专有聊天机器人相媲美。与此同时,研究还展示了大型语言模型自身的内在能力限制了角色特定知识的获取,但通过辅助较小模型的指导可以轻松获得角色扮演风格。
Jan, 2024
通过对比提示对生成的偏好数据进行评估,并计算自奖励分数,最终使用 DPO 算法结合此自奖励分数来有效地对齐大型语言模型,实现了不依赖人工标注的偏好数据的 DLMA 方法能够超越 RLHF 方法。
Feb, 2024