ACLMay, 2024

分散 - 合并:通过减少对齐税来推动指令调优的极限

TL;DR通过我们的研究,我们提出一个假设:数据偏差可能是大型语言模型在细调过程的后期出现性能下降的原因之一。为了解决这个问题,我们引入了一个简单的分散然后合并的框架。尽管简单,我们的框架在一系列标准的知识和推理基准测试中优于各种复杂的方法。