Jun, 2024
M2Lingual:大型语言模型中的多语言、多轮指令对齐增强
M2Lingual: Enhancing Multilingual, Multi-Turn Instruction Alignment in
Large Language Models
TL;DR指导微调(IFT)对于使大型语言模型(LLM)遵循指令非常关键。本文提出了一个全新的完全合成的多语言多轮指导微调数据集(M2Lingual),称为Evol,以更好地使LLM在多种语言和任务中对齐。M2Lingual包含182K个基于不同种子构建的IFT对,涵盖了70种语言、17个NLP任务和一般的指令-响应对。使用M2Lingual微调的LLMs在许多现有的多语言IFT数据集中表现出色。重要的是,使用M2Lingual训练的LLMs在广泛的评估基准上始终能够达到与现有的多语言IFT数据集相媲美的竞争结果。因此,我们提出了用于创建M2Lingual的2步Evol分类法。