基于策略自我判断的大型语言模型对齐
通过利用自动生成的负例,自我对比是一种无需依赖人类反馈的大型语言模型对齐方法,仅通过有监督的微调目标,利用语言模型本身生成大量多样化的候选,并根据文本相似性使用预训练的嵌入模型筛选多个负例,实验证明在此设置下,仅通过缩放负响应仍可以有效地近似具有更平衡的正面和负面偏好注释的情况,通过对三个数据集的直接偏好优化实验表明,自我对比可以始终显著优于有监督微调和标准偏好优化训练,当自生成负例的数量增加时,自我对比的性能也在不断提高。
Mar, 2024
我们提出了一个具有 13B 参数的生成式评测模型 Auto-J,通过训练用户查询和大规模真实场景下 LLM 生成的响应,以适应多样化的评估协议,包括对比评估和单一响应评估,并提供详细分析和案例研究来揭示我们方法的潜力。
Oct, 2023
该研究提出了一种名为 SALMON 的新方法,使用仅包含少量人定的原则和基于合成偏好数据训练的奖励模型,实现了对基础语言模型的自动对齐,通过调整原则控制奖励模型的偏好,进而影响强化学习训练的策略的行为,消除了对在线人类偏好收集的依赖,其在各种基准数据集上显著超越了几种最先进的人工智能系统,包括 LLaMA-2-Chat-70b,提高了监督效率、可控性和可扩展性。
Oct, 2023
通过细粒度的分词级监督来增强预训练的大规模语言模型(LLM)的对齐,该方法可提高 LLM 性能的绝对改善率高达 5.1%,与传统的 PPO 模型相比,训练集是通过最小编辑来改善标准奖励模型数据集中较不受欢迎的回答,以确保在必要的地方进行改动,同时保留大部分原始内容。
Jun, 2024
本研究在大型语言模型(LLMs)对齐方面引入自我演进微调(SEFT),旨在消除对注释样本的需求,同时保持 SFT 的稳定性和效率。通过 SEFT,模型能利用大量未标志的数据进行策略优化。实验结果表明 SEFT 的有效性,并对其相对于现有对齐技术的优势进行了全面分析。
Jun, 2024
本研究提出了一个新的框架,利用奖励建模 (RM) 方法和模拟高质量演示来进行对齐语言模型的训练,避免了对已对齐的 LLMs 的依赖,这种方法的结果是,我们的模型 ALMoST 在对 InstructGPT 或人工注释指令训练的开放源代码模型中表现良好,我们的 7B 大小的模型在使用 GPT-4 作为评判员的 A /B 测试中表现优异,平均获胜率约为 75%。
May, 2023
通过对大规模语言模型进行微调以构建可扩展的评判模型,提出了一种有效评估大规模语言模型的方法,并成功应用于新的基准测试中,获得了最佳表现。
Oct, 2023
我们提出了自我改进指导调整方法,通过引导较小语言模型进行自我改进,以实现对推理能力的进一步发展。此方法通过在大型语言模型提供示范的基础上,将推理能力从较大语言模型传输到较小语言模型,然后使用优化策略使得被指导的模型自我改进能力。在常识与数学推理任务上的结果表明,该方法在领域内外场景均显著优于指导调整方法,并使得较小语言模型与较大语言模型的推理能力逐渐趋于一致。
May, 2024
通过自动生成的优先数据 (Selfie) 和少量的人工标注优先数据,我们提出了一种新的框架,可以显著增强大型语言模型的对齐性能,进一步提取模型的内在偏好。
Jun, 2024
我们首次通过自然语言反馈的方法探索了对齐大型语言模型的可能性,并提出了一种称为 Contrastive Unlikelihood Training (CUT) 的新框架,通过细致判定检测和修正来实现对不适当内容的改进,获得了优于基线模型的好成绩。同时,我们的分析表明判定相较于奖励在 LLM 对齐方面具有更大的潜力,值得进行进一步研究。
Dec, 2023