Jan, 2025

指令调优与预训练的对齐

TL;DR本研究针对大型语言模型(LLMs)在指令调优过程中面临的数据集覆盖不足和与预训练分布不匹配的问题,提出了一种新方法,即对齐指令调优与预训练(AITP)。通过重写不足的数据,生成高质量的指令-响应对,该方法不仅提升了数据集的多样性,还在八个基准测试中展现了明显的性能改进,展示了通过对齐两者的分布,可以充分发挥LLMs的潜力。