BriefGPT.xyz
大模型
Ask
alpha
关键词
cross-lingual pretraining
搜索结果 - 3
XDLM:跨语言扩散语言模型用于机器翻译
提出了 XDLM,一种新颖的用于机器翻译的跨语言扩散模型,包括预训练和微调阶段。在预训练阶段,提出了 TLDM,用于掌握不同语言之间的映射关系;在微调阶段,基于预训练模型构建了翻译系统,并在多个机器翻译基准测试中优于扩散模型和 Transf
→
PDF
a year ago
ACL
针对无监督神经机器翻译,提升预训练语言模型的词汇能力
本文介绍了一种基于子词嵌入的双语掩码语言模型预训练方法,应用于无监督神经机器翻译和双语词汇归纳任务中均取得了较好的性能表现。
PDF
3 years ago
跨语言语言模型预训练
本文提出了两种跨语言学习模型的方法 (XLMs): 一种是仅依赖于单语数据的无监督方式, 另一种是利用新的跨语言模型目标并使用平行数据的有监督方式。通过这些方法在跨语言分类、无监督和有监督机器翻译中取得了最先进的结果。
PDF
5 years ago
Prev
Next