BriefGPT.xyz
大模型
Ask
alpha
关键词
cross-lingual learning objective
搜索结果 - 1
利用多语言序列到序列预训练技术在文本生成与理解中弥合跨语言差距
本文提出了一种通过引入代码切换任务来减少跨语言场景下的数据和任务差异从而提高多语言序列到序列预训练语言模型(multilingual Seq2Seq PLMs) 的性能的方法,实验结果表明该方法显著优于以标准微调策略微调的基准模型 mBAR
→
PDF
2 years ago
Prev
Next