本文提出了两种跨语言学习模型的方法 (XLMs): 一种是仅依赖于单语数据的无监督方式, 另一种是利用新的跨语言模型目标并使用平行数据的有监督方式。通过这些方法在跨语言分类、无监督和有监督机器翻译中取得了最先进的结果。
Jan, 2019
通过利用翻译句子对齐内部句子表示,并通过回答不同语言的提示问题对齐模型输出,我们提出了一个简单而有效的对齐框架,显著增强了生成模型的跨语言能力并减小了性能差异。进一步分析表明,它导致了更好的多语言模型的内部多语言表示分布。
Nov, 2023
本文结合视觉和语言的跨语言预训练方法,使用三重并行视觉和语言语料库进行预训练,并说明所学习的基于视觉的跨语言表示对于多模式机器翻译的性能具有领先优势。
Jan, 2021
本文使用序列到序列模型进行自然语言生成任务,使用预训练的方法并将编码器和解码器用于单语和跨语言,实现零 - shot 跨语言转移、提高低资源语言的 NLG 性能。
Sep, 2019
利用机器翻译作为持续训练目标来增强语言表示学习在跨语言学习中的作用研究发现,机器翻译无法增强多个跨语言自然语言理解任务中的跨语言表示学习,这对未来的跨语言转移研究有重要影响。
Mar, 2024
本文介绍了一种基于子词嵌入的双语掩码语言模型预训练方法,应用于无监督神经机器翻译和双语词汇归纳任务中均取得了较好的性能表现。
Mar, 2021
本文研究了两个方向在低资源的神经机器翻译中的应用。第一种方向利用高资源语言通过多语言 NMT 来提高低资源语言的翻译质量。第二种方向利用自监督单语数据来预训练翻译模型并在少量监督数据的支持下进行 fine-tuning。本研究结合这两种方向,证明了单语数据对于多语言 NMT 的有效性,并提出了三个重要结果:(i) 使用单语数据显著提高了多语言模型中低资源语言的翻译质量。(ii) 自监督在多语言模型中提高了零样本翻译质量。(iii) 利用带自监督的单语数据为多语言模型添加新语言提供了一条可行的路径,在没有任何平行数据或回译的情况下,对于罗马尼亚 - 英语的翻译获得了高达 33 BLEU 的结果。
May, 2020
本文提出了一种新的跨语言预训练方法,通过融合显式的跨语言训练信号,从交叉语境中获取受益的跨语言信息并使用 CMLM 预训练模型大幅提高了无监督机器翻译的性能.
Aug, 2019
多语言大型语言模型通过隐式对齐语言和神经元重叠达到零 - shot 跨语言转移性能,本研究使用内在探测技术通过检查点观察到神经元重叠和下游性能之间的高相关性,同时探测到预训练过程中隐式对齐和多语言能力的退化现象,为多语言预训练动态提供了新的见解。
Jun, 2024
通过混合监督和自我监督目标的方法,实现了覆盖数百种语言的多语言机器翻译模型的构建,该方法可在零资源情况下生成高质量翻译,甚至超过低 - 中资源语言的监督翻译质量。
Jan, 2022