BriefGPT.xyz
Jan, 2025
指令调优与预训练的对齐
Aligning Instruction Tuning with Pre-training
HTML
PDF
Yiming Liang, Tianyu Zheng, Xinrun Du, Ge Zhang, Jiaheng Liu...
TL;DR
本研究针对大型语言模型(LLMs)在指令调优过程中面临的数据集覆盖不足和与预训练分布不匹配的问题,提出了一种新方法,即对齐指令调优与预训练(AITP)。通过重写不足的数据,生成高质量的指令-响应对,该方法不仅提升了数据集的多样性,还在八个基准测试中展现了明显的性能改进,展示了通过对齐两者的分布,可以充分发挥LLMs的潜力。
Abstract
Instruction Tuning
enhances
Large Language Models
(LLMs) to follow human instructions across diverse tasks, relying on high-quality datasets to guide behavior. However, these datasets, whether manually curated or
→