Sep, 2024

超越微调:释放临床大型语言模型的持续预训练潜力

TL;DR本研究解决了将大型语言模型应用于临床的有效性问题,探讨了持续预训练、指令微调、NEFTune和提示工程四种技术的适应性。研究发现,持续预训练虽然在超过2500亿标记时改善幅度有限,但为指令微调奠定了坚实基础,而NEFTune则意外地在基准测试中表现出额外提升,推动了临床领域模型性能的优化。