ICMLJan, 2022

DeepSpeed-MoE: 推动混合专家推理和训练以推动下一代 AI 规模

TL;DR本文介绍了一种通过 Mixture-of-Experts 模型架构实现的深度学习模型训练及推断方案,名为 DeepSpeed-MoE。该方案通过新颖的模型压缩技术和高度优化的推断系统,在减小模型尺寸、提高能效和降低硬件资源要求等方面都有着非常显著的表现。希望通过 Sparse MoE Models 的训练和部署,开辟更多高质量模型的新方向,减少硬件资源的需求,加速模型的落地应用。