本文提出了一种新的检索增强 NMT 模型,用于对比检索翻译记忆,利用 Hierarchical Group Attention 模块和 Multi-TM contrastive learning 目标函数增加多层面信息收益,实验结果表明,该模型在基准数据集上优于现有算法。
Dec, 2022
本文提出了一种新的监督学习方法,通过对标准最大似然估计方法进行对比标记优化,特别适用于从修改后的翻译中学习,进一步提高了神经机器翻译的性能。
Jul, 2023
本文中,我们提出了一种新的学习算法,用于增进神经机器翻译模型对附加上下文的理解,通过使用多级成对排名损失函数,我们在基于 transformer 的大语境翻译系统中进行了评估,并通过与实际和随机语境下的性能对比表明,使用所提出的算法训练的模型对额外上下文的理解更敏感。
Mar, 2019
本文提出一种跨媒体对比学习方法,将几种低资源语言与高资源语言相连,通过少量的图像 - 文本对实现神经机器翻译,取得了显著的效果。
Oct, 2022
通过利用平行语料库和非平行语料库,采用对比学习等方法,有效提高了预训练多语言语言模型的跨语言传递能力,同时显著提高了检索性能,且计算成本较低。
本文提出了一种新颖的神经机器翻译数据增强方法,即通过语言模型提供的词汇分布来增强句子中的特定单词,从而比之前的增强方法更好地捕捉上下文语义信息。实验结果表明该方法在小规模和大规模机器翻译数据集上都优于强基线。
May, 2019
本文介绍了一种基于相互信息最大化的神经机器翻译模型,该模型使用一种简单的重新排序方法和一种增加 N-best 列表多样性的解码算法,应用于 WMT 德英和法英任务中,该模型能够在标准 LSTM 和基于注意力的神经机器翻译体系结构上提供持续的性能提升。
Jan, 2016
本文介绍了词表示学习的最新方法,通过互信息最大化来统一传统的词嵌入模型和现代上下文嵌入模型。此外,我们提出了一种构建新的自监督任务的框架,并提供了一种简单的自监督目标函数来最大化句子全局表示和 n-gram 之间的互信息。这种方法可以在自然语言处理、计算机视觉和音频处理等多个领域传递知识和推进进展。
Oct, 2019
本文提出了一种多级对比学习(ML-CTL)框架,使用翻译后的平行数据并显式地整合每对平行句子的单词级信息进行对比学习,以进一步提高预训练模型的跨语言能力。其中,采用了交叉零噪声对比估计(CZ-NCE)损失来减轻训练过程中小批量大小的浮点误差的影响。该方法显著提高了基础模型(mBERT)的跨语言迁移能力,并在 Xtreme 基准测试的多个零 - shot 跨语言下游任务中表现优异。
Feb, 2022
本文介绍了一种新的度量模型使用上下文的方法,并提出了一种新的训练方法来增加上下文感知模型的使用率。实验证明,这种方法可以提高翻译质量和语义连贯性。
May, 2021