Jul, 2024

通过自然语言和多样化数据集改进多语言指导微调

TL;DR利用英语为主要依据的大型语言模型(LLMs)、单语语料库和评分函数,我们提出了一种新颖的方法来收集多语言的指令微调(IFT)数据集,以保持语言的自然性和确保批示的多样性。实验证明,使用我们的 IFT 数据集进行微调的 LLMs 在生成和判别任务方面都显示出显著的改进,表明 LLMs 在非英语环境中的语言理解能力得到了提升。特别是在多语言摘要任务中,使用我们的 IFT 数据集进行微调的 LLMs 相对于采用基于翻译和基于模板的数据集进行微调的 LLMs 分别实现了 17.57% 和 15.23% 的改进。