BriefGPT.xyz
Ask
alpha
关键词
multilingual sequence-to-sequence models
搜索结果 - 1
ACL
预训练的多语言序列到序列模型:底资源语言翻译的希望?
通过在 10 种语言上进行完备实验,考虑了五个因素:(1)微调数据量,(2)微调数据中的噪声,(3)模型预训练数据量,(4)领域不匹配的影响以及(5)语言类型学,我们试图确定预训练多语言序列到序列模型(如 mBART)对翻译低资源语言有何贡
→
PDF
2 years ago
Prev
Next