Sep, 2024

大规模语言模型的领域适应微调:训练策略、比例、模型合并及协同能力探索

TL;DR本研究针对大规模语言模型在特定领域应用中的微调策略进行了探索,填补了技术能力适应的空白。通过比较继续预训练、监督微调及多种基于偏好的优化方法,发现模型合并能超越单一模型的功能,显著提升领域特定评估的表现。我们的实验表明,小型模型在合并时并未必能出现新能力,提示模型规模可能是关键因素。