Feb, 2023
训练专家语言模型带来的益处:比指令调整更胜一筹
Exploring the Benefits of Training Expert Language Models over
Instruction Tuning
TL;DR本文研究发现,相对于使用多个任务的multitask-prompted fine-tuning方法进行指导调整的语言模型,仅针对单个任务进行专家模型的fine-tuning能够使模型在11个不同的未知数据集上以及13个BIG-bench基准测试数据集上平均准确率分别提高3.20%和1.29%。此外,分别训练每个专家模型而不是单个MT LM进行zero-shot推断具有许多好处,包括避免负面任务转移,能够持续学习新任务而无需重新训练以避免灾难性遗忘以及显示在合并单个专家时具有组合能力。