Magpie: 无助推主题、从头训练,通过提示对齐的 LLMs 生成对齐数据
本研究提出了一个新的框架,利用奖励建模 (RM) 方法和模拟高质量演示来进行对齐语言模型的训练,避免了对已对齐的 LLMs 的依赖,这种方法的结果是,我们的模型 ALMoST 在对 InstructGPT 或人工注释指令训练的开放源代码模型中表现良好,我们的 7B 大小的模型在使用 GPT-4 作为评判员的 A /B 测试中表现优异,平均获胜率约为 75%。
May, 2023
通过使用编码 - 解码原理,我们引入了 CodecLM,这是一个用于自适应生成与不同后续指令分布和大语言模型对齐的高质量合成数据的通用框架。在编码过程中,我们将种子指令转化为元数据,然后通过解码来创建定制的指令。我们还引入自我评分和对比过滤来定制数据样本,经过在四个开放领域指令遵循基准测试上的大量实验证明,CodecLM 相对于当前技术水平具有显著的效果。
Apr, 2024
研究如何从单个提示生成大型指导数据集,使用较少的人工监督,使 LLMs 能够撰写多样化的指令示例,从简单的完成任务到复杂的多轮对话,并在知识密集型任务和对话评估中超过了 WizardLM 和 Ultrachat,在扩展性和可伸缩性方面超过了公共指导微调数据集。
Jun, 2024
探索不依赖于封闭源模型生成高质量指令数据的替代方法,并通过整合有效的变体和两种新策略进一步提高其质量,我们的生成指令数据能够胜过依赖封闭源模型的 Alpaca 方法。希望在不使用封闭源模型的情况下能够取得更多的高质量指令数据生成进展。
Aug, 2023
该研究介绍了 MM-Instruct,这是一个大规模、多样化和高质量的视觉指导数据集,旨在增强大型多模态模型(LMMs)的指令跟随能力,并通过使用现有的 LLMs 从大规模图像字幕数据集生成新的视觉指导数据,并介绍了一个基于生成的指导数据来评估现有 LMMs 的指令跟随能力的基准。
Jun, 2024
通过自动化指标和静态分析工具评估大型语言模型与用户定义的编码偏好之间的对齐是一项具有挑战性的任务。本文介绍了 CodeUltraFeedback,这是一个包含 10,000 个复杂指令的偏好数据集,通过 AI 反馈调整和对齐语言模型与编码偏好。我们通过 14 个不同的语言模型对指令生成响应,并使用 LLM 作为评判器的方法对其对齐性进行了标注。我们还提出了 CODAL-Bench,用于评估语言模型与编码偏好对齐的基准。结果表明,通过使用 CodeUltraFeedback 的 AI 反馈数据,采用增强学习和直接优化编码偏好的方法,CodeLlama-7B-Instruct 在 CODAL-Bench 上优于 34B 模型,验证了 CodeUltraFeedback 在偏好调整方面的实用性。此外,我们还展示了经过优化的 CodeLlama 模型相比于未对齐的基础模型在 HumanEval + 上的功能正确性有所改进。因此,我们的贡献弥合了语言模型对编码偏好的调整差距,并为模型对齐和代码智能的进一步发展奠定了基础。
Mar, 2024
大型语言模型的自主选择优化方法以及通过 IFD 指标识别差异以提高模型训练效率的研究对于提高 LLM 的效率和资源利用具有重要意义。
Aug, 2023
在对指令微调的研究中,最长指令的选择应该是任何研究的默认基线,因为经证实此方法能够在 LLMs 中提高性能,保持与对事实的知识进行测试的 OpenLLM 基准的竞争力。
Feb, 2024
我们介绍了一种黑盒提示优化方法,利用攻击者 LLM 代理来揭示受害者代理中比直接使用训练数据作为提示目标模型所揭示的更高水平的记忆,我们使用迭代的拒绝抽样优化过程来找到具有两个主要特征的基于指令的提示,即 (1) 最小程度地与训练数据重叠,以避免直接向模型呈现解决方案;(2) 最大化受害模型输出与训练数据的重叠,旨在诱使受害模型输出训练数据,我们观察到,与基于前缀 - 后缀测量的基准相比,我们的基于指令的提示生成的输出与训练数据重叠度更高达 23.7%,我们的发现表明,(1) 基于指令的模型可以暴露出与其基础模型一样多的预训练数据,甚至更多;(2) 原始训练数据之外的上下文可以导致信息泄漏;(3) 使用其他 LLM 提出的指令可能会开辟一种新的自动攻击的途径,需要进一步研究和探索。代码可以在此 URL 找到。
Mar, 2024
我们提出了一种新的方法,通过从预训练的网络语料库中高效地收集 1000 万条自然存在的指导数据来增强大型语言模型 (LLMs) 的推理能力,从而显著提高了模型在推理基准测试中的性能,并在多个推理和聊天机器人基准测试中获得了最先进的性能。
May, 2024