关键词zero-shot cross-lingual generation
搜索结果 - 2
- 生成任务中有效的零射击跨语言知识转移的关键要素
零 - shot 跨语言生成的前提是在一个语言上对多语言预训练语言模型进行微调,并将其用于其他语言的生成任务中。先前的研究注意到生成错误语言的频繁问题,并提出了解决方法,通常使用 mT5 作为基础模型。本研究在统一设置下比较了文献中提出的各 - 预训练的多语言语言模型在零差生成中的实证研究
通过在一个语言上对多语言预训练语言模型(mPLM)进行微调,再在其他语言上使用它进行预测,零样本跨语言生成通常会出现使用错误语言生成的问题,本研究测试了替代的 mPLMs(如 mBART 和 NLLB),考虑到全微调和适配器参数高效微调,并