指令采集:大型语言模型高质量指令数据选取
本文研究了在指令集合中对语言模型进行微调以改善其性能及推广其应用的方法,重点探讨了任务规模的扩展、模型大小的扩展和链式推理数据的微调,发现通过上述方面的微调显著提高了包括 PaLM、T5、U-PaLM 在内的各种模型类别,在零样本、少样本和 CoT 环境中的表现,以及在多项基准测试中的表现。
Oct, 2022
本文探讨了指令调整对大型语言模型性能的影响,并在在线应用案例中通过增加不同比例的指令数据探究了模型的表现。结果表明,增加指令数据可改善某些任务的表现,但对于数学和代码等任务,增加数据规模的改善效果不明显。
Mar, 2023
通过本研究,我们发现指导微调对大型语言模型产生了三个重要影响,包括了对指令识别的加强、对知识存储层次的对齐以及对单词关系学习的促进。这些发现有助于更深入地理解指导微调对大型语言模型行为变化的影响,并为未来解释和优化这些模型以适用于不同应用领域的研究打下了基础。
Sep, 2023
基于全面的模型性能至诚态度,我们系统调查了数据量、参数规模和数据构建方法对各种能力发展的影响,并通过新的40k人工指导的指令数据集进行了数百个模型检查点(7b到33b)的全面指导优化。我们的研究揭示了三个主要发现:(i)尽管数据量和参数规模直接影响模型的整体性能,但某些能力更容易受到其增加的影响,并且可以通过有限数据进行有效训练,而某些能力对这些变化高度抵抗。(ii)人工指导的数据在效率上明显优于GPT-4的合成数据,并且可以随着数据量增加不断提高模型性能,而合成数据则无法达到这种效果。(iii)指令数据带来了强大的跨能力泛化性,域外数据的评估结果反映了前两个观察结果。此外,我们还展示了这些发现如何指导更高效的数据构建,从而在公共基准测试中实现实际性能的提升。
Oct, 2023
利用奇点法选择高质量的训练数据进行指令调整以优化大型语言模型的性能。在两个基准测试中,采用奇点法选择的前1%的样本比传统方法使用完整数据集要表现更好,强调了优先考虑质量的数据选择范例可以更高效地对齐大型语言模型和人类。
Dec, 2023
通过基于样本学习百分比的训练数据选择,我们展示了当前语言模型具备自主选择高质量训练数据的能力,这极大地降低了训练成本且达到或超过整个数据集训练的性能表现。
Feb, 2024
通过渐进对齐的假设,我们提出了一种新颖的分阶段指令微调(Phased IFT)方法,基于难度评分并使用逐步训练的方式显著地提高了预训练语言模型的指令遵循能力。
Jun, 2024
本研究针对指令调优中存在的数据评估和选择方法的知识空白,系统综述现有文献,并将相关方法分类为基于质量、基于多样性和基于重要性的三大类。研究指出,现有方法在选择数据点时存在局限性,并为未来研究提出了可能的方向。
Aug, 2024
本研究旨在解决当前指令调优过程中存在的数据评估指标不足的问题。通过全面回顾现有文献,我们系统性地分类并细化了数据选择方法,为指令调优提供了新的视角和方法论。研究最重要的发现是,提出的统一分类法可以有效指导未来的数据选择研究,从而提升大型语言模型的性能。
Aug, 2024