Sep, 2024
超越微调:释放临床大型语言模型的持续预训练潜力
Beyond Fine-tuning: Unleashing the Potential of Continuous Pretraining
for Clinical LLMs
Clément Christophe, Tathagata Raha, Svetlana Maslenkova, Muhammad Umar Salman, Praveen K Kanithi...
TL;DR本研究解决了将大型语言模型应用于临床的有效性问题,探讨了持续预训练、指令微调、NEFTune和提示工程四种技术的适应性。研究发现,持续预训练虽然在超过2500亿标记时改善幅度有限,但为指令微调奠定了坚实基础,而NEFTune则意外地在基准测试中表现出额外提升,推动了临床领域模型性能的优化。