关键词sparsely gated mixture of experts
搜索结果 - 2
- 多语言机器翻译中修复低资源语言的 MoE 过拟合问题
通过引入 dropout 和条件化的 MoE 路由和课程学习技术,本研究针对低资源任务下 MoE 模型的严重过拟合问题,提出有效的正则化策略,成功提高了 MoE 模型在低资源任务中的性能,并在大规模多语种机器翻译基准测试中取得了巨大的改进。
- 无人被落下的语言:人本机器翻译的扩展
本文介绍了一项针对低资源语言的研究,使用 Sparsely Gated Mixture of Experts 模型结合新的数据挖掘技术进行训练,从而实现了机器翻译中对于低资源语言的支持并提高了 BLEU 值。