Aug, 2024

将大型语言模型灵活有效地混合成领域专家混合体

TL;DR本研究解决了低成本创建领域专家混合体(MOE)模型的需求,提供了一种工具包用于从训练好的模型或适配器中构建MOE。研究表明,该工具包能够有效指导MOE架构的定义,具有良好的实用性和潜在影响。