Feb, 2023

印尼语多语 T5 转换器

TL;DR本文研究了将 mT5 多语言模型适应为仅针对印尼语的预训练 T5 模型,通过对多语言模型与本模型在情感分析、问题生成和问答三个任务的表现进行比较,结果表明可以生成一个更小的预训练模型并在 comparable yields 的同时减小模型大小高达 58%,而且所得模型需要更少的内存,加载速度更快,推理时间更快。