通过细粒度纠正的人类反馈,RLHF-V 通过行为对齐增强了 Multi-Modal Large Language Models (MLLMs) 的可靠性。通过在自动化和人类评估中进行全面实验,RLHF-V 能够以有希望的数据和计算效率,在五个基准测试中显著降低 MLLM 的错觉率,并达到开放源代码 MLLM 中可靠性方面的最新技术水平。
Dec, 2023
我们提出了基于 LMM 的聊天机器人来回答多模态物理选择题,并通过使用 RLHF 和图像字幕技术来改善模型的性能。
Apr, 2024
通过对 pre-trained large language models 进行 factual-aware SFT 和 factual-aware RL 的直接优化,使其在保持指令遵循能力的同时,输出更多真实的回应。
May, 2024
通过 Fine-Grained 人工智能反馈以及基于强化学习将多模态对齐,解决了 Large Vision-Language Models 中的幻觉问题,提高了模型的性能。
通过引入偏好调优和自动生成数据的方法 POVID,本研究解决了视觉大语言模型中可能出现的幻觉问题,并通过直接偏好优化的强化学习模型提高了模型性能。
Feb, 2024
提出了一个多阶段的框架,通过生成合理的依据并验证修正错误,将其作为支持参考生成答案,提高了 GPT-3.5-turbo 在生命科学行业药物相关查询中的响应质量。该框架使得 GPT-3.5-turbo 对两个数据集的答案更可靠和准确,并通过与商业模型进行竞争,提高了小型开放访问的 LLMs 的准确性。
Nov, 2023
本文从表示学习的新角度解决了多模态大型语言模型中的幻觉问题,并通过引入对比学习的方法,在多个基准测试中证明了减少幻觉和提高性能的有效性。
大型语言模型对视频大型多模型的发展产生了影响。我们提出了一种新的多模态智能系统对齐策略,称为从 AI 反馈中的强化学习,通过提供详细的视频描述来丰富视频内容的理解,以改进视频和文本内容的对齐效果。我们的方法 VLM-RLAIF 在多种视频基准测试中表现出卓越的性能,超过了现有的方法,包括 SFT 模型。我们致力于开源我们的代码、模型和数据集,以促进该领域的进一步研究。
通过强化学习原理的角度分析了强化学习来自人类反馈的语言模型的基础,重点关注了奖励模型作为 RLHF 核心组件的建模选择、函数逼近的陷阱,以及它们对训练算法的影响,同时揭示了当前方法的局限性。通过对现有文献的分类评论,我们对 RLHF 的挑战进行了描述,为研究人员和从业者理解 RLHF 的挑战并建立在现有研究的基础上提供参考。
介绍了针对教育领域的新概念 —— 教育对齐的大型语言模型 (LLMs),它作为脚手架工具将复杂问题分解为可管理的子问题,并通过反馈和提示引导学生寻找最终答案。研究表明,通过对齐的强化学习方法在提高 LLMs 的性能方面表现优越,同时在线反馈对于提升教育对齐型 LLMs 的表现也具有潜力,为这些模型在教育环境中的发展提供了有价值的见解。