Dec, 2023

通过指令调整,为 Mistral-8x7B 稀疏 Mixture-of-Experts 激活中文聊天能力的 Aurora

TL;DR通过对三个中文指令数据集进行系统研究、预处理和整合,本文成功构建了名为 'Aurora' 的 Mixtral-8x7B 稀疏专家组合模型,并通过这些数据集的指令微调,验证了 Aurora 模型在中文对话能力上的有效性,这一工作在稀疏专家组合模型的指令微调方面具有开创性意义,对该模型结构的能力提升具有显著突破。