May, 2023
mLongT5:针对更长序列的多语言高效文本转换器
mLongT5: A Multilingual and Efficient Text-To-Text Transformer for Longer Sequences
David Uthus, Santiago Ontañón, Joshua Ainslie, Mandy Guo
TL;DR本文介绍了我们关于开发一种适用于处理长输入的多语言高效文本到文本转换器的工作,称为 mLongT5 (即在 LongT5 架构上构建并利用用于预训练 mT5 和 UL2 预训练任务的多语言数据集),我们评估了该模型在各种多语言摘要和问答任务上的表现,并与现有的多语言模型(如 mBART 或 M-BERT)进行了比较,表明 mLongT5 相对于这些模型具有更强的性能。