介绍了针对教育领域的新概念 —— 教育对齐的大型语言模型 (LLMs),它作为脚手架工具将复杂问题分解为可管理的子问题,并通过反馈和提示引导学生寻找最终答案。研究表明,通过对齐的强化学习方法在提高 LLMs 的性能方面表现优越,同时在线反馈对于提升教育对齐型 LLMs 的表现也具有潜力,为这些模型在教育环境中的发展提供了有价值的见解。
Feb, 2024
我们引入了语言反馈模型(LFMs),用于在指令跟随的模仿学习中识别理想行为 - 有助于实现指令中所述任务的行为。通过使用 LFMs 识别理想行为进行模仿学习,我们改善了在三个不同的语言基础环境(Touchdown、ScienceWorld 和 ALFWorld)上强大的行为克隆基线的任务完成率。同时,与使用 LLMs 直接预测动作相比,LFMs 在控制 LLMs 输出令牌数量的情况下取得了更好的效果。LFMs 具有泛化到未见环境的能力,通过一轮适应提高了 3.5-12.0% 的任务完成率。最后,LFM 可以进行修改以提供具有人类可解释性的反馈,而不会损失性能,从而允许人类验证模仿学习中的理想行为。
本文提出了一种通用框架,利用自然语言反馈来解锁系统级反馈的用处,并应用于搜索和对话系统的查询和响应生成中,本方法证明了系统级反馈与实例级反馈的结合带来了更多的收益,并强调了人类反馈对系统构建的重要性。
Jun, 2023
通过模型中人类反馈的学习,改进大型语言模型(LLMs)的输出与人类期望的一致性,利用人类反馈信号中以响应对的排名形式的强化学习,研究使用自然语言反馈模型的数据效率,通过对 ChatGPT、BARD 和 Vicuna 等模型的反馈逐渐改进,提高了模型的响应质量。
Nov, 2023
该论文介绍了一种名为自然语言反馈微调 LLM(LaFFi)的替代方法,通过要求 LLM 直接预测从评注者那里得到的反馈,显著提高了领域内问答任务的准确性,为自然语言反馈在 SFT LLMs 领域的应用提供了一个有前途的方向。
Dec, 2023
本文提出了一种基于自然语言反馈的训练算法 ILF 并在神经程序综合任务中证明了其有效性,ILF 只需要少量人工编写的反馈意见就能提高 LLM 的表现,并且比仅仅基于演示训练的方法更有效和更节省样本。
Mar, 2023
利用语言反馈进行模仿学习 (ILF) 是一种新方法,可以有效提升大型预训练语言模型的摘要性能,并比使用对比反馈或人工摘要的方法更好。
本文对利用人类反馈来提高自然语言生成的研究进行了综述。通过介绍反馈的形式和目标,讨论了直接使用反馈或训练反馈模型两种方法在训练和解码过程中的应用。此外,我们还探讨了与反馈收集相关的现有数据集和问题,并提供了人工智能反馈领域的概述。
May, 2023
使用三个不同的大型语言模型 (LMM) 能力,通过细粒度的自然语言反馈和排除错误提高事实一致性,优于现有端到端细化方法和当前未经调整的模型。
Jul, 2024
人类反馈在大型语言模型中被广泛应用,本研究回顾了现有的人类反馈学习方法,并提出了未解决的五个概念和实践上的挑战。
Oct, 2023