Mar, 2024
通过监督微调向大规模语言模型注入新知识
Injecting New Knowledge into Large Language Models via Supervised Fine-Tuning
Nick Mecklenburg, Yiyou Lin, Xiaoxiao Li, Daniel Holstein, Leonardo Nunes...
TL;DR研究了在最新的体育事件领域中,通过具有监督的微调方法对大规模语言模型进行知识注入的有效性,并比较了基于令牌和基于事实缩放的不同数据集生成策略,发现基于事实缩放提供了更为系统的方法来确保对所有事实的均匀覆盖。通过 SFT 进行更有效的知识吸收,从而显著提高了与领域外知识相关的问答任务的性能,为领域适应性和提高大规模语言模型响应准确性的潜力做出了贡献。