Feb, 2024

EE-Tuning: 基于经济且可伸缩的解决方案的早停调参大型语言模型

TL;DREE-Tuning 是一种轻量且经济的解决方案,用于训练 / 调整早停的大型语言模型 (LLMs)。与全参数预训练的常见方法相比,EE-Tuning 通过以参数有效的方式增加早停层来扩充任何预训练(可能是微调)的标准 LLM,从而大大减少计算资源和训练数据的需求。通过广泛的性能优化和与 3D 并行性的完全兼容性,我们的 EE-Tuning 实现实现了出色的训练效率和可扩展性。系统实验证实了 EE-Tuning 的有效性,并证实只需有限的训练预算就可以实现有效的早停 LLM 推断。为了让早停 LLMs 可供广大科研人员使用,我们在此链接处发布了 EE-Tuning 的源代码。