Jul, 2023

AlpaGasus: 用更少的数据训练更好的羊驼

TL;DR本研究提出了一种数据选取策略,利用一个强大的大型语言模型(ChatGPT)自动地识别和删除低质量的数据,从而过滤出高质量的数据并训练指令跟随模型。通过使用该策略,作者利用仅有的 9k 条高质量数据训练出了一个新的大型语言模型 AlpaGasus,相比于 Alpaca 的 52k 数据集,在多个测试集上获得了更好的表现。同时,AlpaGasus 提供了 5.7 倍更快的训练速度,训练时间从 Alpaca 的 80 分钟减少到了 14 分钟。该方法展示了一种数据中心的指令跟随模型训练范式,可广泛应用于指令调整数据,提高训练效率和准确率。