Apr, 2024

XFT:通过简单合并升级的专家混合解锁代码指令调优的潜力

TL;DR通过将升级 Mixture-of-Experts (MoE) 与稀疏升级相结合,并引入共享专家机制和路由权重归一化策略,XFT 训练方案显著增强了指令调优,将升级 MoE 型号编译回密集型型号,实现了与升级 MoE 型号相当的性能。应用 XFT 到 1.3B 模型,我们创造了一种新的最先进的微型代码 LLM (<3B),在 HumanEval 和 HumanEval+ 上分别达到了 67.1 和 64.6 的 pass@1。与现有技术如 Evol-Instruct 和 OSS-Instruct 完全不冲突,为改善代码指令调优提供了新的维度。