Jun, 2024

玉兰:一个开源的大型语言模型

TL;DR该论文介绍了 YuLan 的开发,这是一系列具有 120 亿参数的开源 LLMs,其基础模型在多样化语料库中进行了预训练,并采用了三阶段预训练方法以提高整体能力。通过使用大量高质量合成数据,结合指导调整和人工对齐的后续训练阶段,以及跨这些阶段的课程学习框架来促进复杂和长尾知识的学习,YuLan 已在各种英文和中文基准测试中达到与最先进 LLMs 相媲美的性能。