Feb, 2024

大规模效率:探究微型语言模型在临床任务中的性能

TL;DR对不同规模的模型以及临床决策任务的适用性进行研究,揭示大型语言模型的效果与 Parameter Efficient Fine-tuning 方法的关系,发现 LoRA 方法在各项任务和模型规模下都能保持较高的性能,专用模型在速度和训练成本上具有优越性,与大型基础语言模型相比效果更好,同时探讨了领域特定预训练与 PEFT 方法和模型规模之间的相互影响,以及提供最佳效率与性能平衡的因素。