Sep, 2024

多数据源可扩展微调:一阶逼近方法

TL;DR本研究解决了如何有效利用多个辅助任务的信息来微调语言模型的问题,尤其是在选择对目标任务性能提升有帮助的辅助任务时。提出了一种新算法,通过多任务训练获得元初始化,并基于函数值和梯度近似子集的微调损失,从而实现了无需重复训练的性能估计。实验证明,该方法在CPU上估计微调性能的速度提高了30倍,同时真实微调性能的误差仅为1%,在指令微调和推理微调的下游评估中提升了最多3.8%。