May, 2023
mmT5: 模块化多语言预训练解决源语言幻觉
mmT5: Modular Multilingual Pre-Training Solves Source Language Hallucinations
Jonas Pfeiffer, Francesco Piccinno, Massimo Nicosia, Xinyi Wang, Machel Reid...
TL;DR为解决多语言下序列到序列模型生成不准确的问题,提出一种模块化多语言序列到序列模型 mmT5,通过使用语言特定模块来消除语言特定信息和语言无关信息之间的差异,并发展有效的零 - shot 迁移策略,成功提高了语言生成准确性和模型性能。