在没有注释的情况下识别平行文本中的语义分歧
本文介绍了一个训练多语言 BERT 模型的策略,通过学习排列变异的不同粒度的合成样本来提高细粒度语义差异的预测和注释。本文还推出一个新的数据集,旨在评估我们的模型在英语 - 法语两种语言之间的语义分歧上的标注效果。结果表明,相对于强的句子级相似度模型,学习排列有助于更准确地检测细粒度句子级分歧,而令牌级别的预测具有进一步区分粗细颗粒差异的潜力。
Oct, 2020
本文提出了一种基于深度神经网络的端到端方法,用于检测两种不同语言之间句子之间的翻译等效性,结果表明该方法在提取平行句子的质量和统计机器翻译系统的翻译表现上均有显著改善,为平行句子提取任务的深度学习研究提供了一种新的思路。
Sep, 2017
本研究提出了一种全新的方法,在没有平行数据的情况下,只利用单语数据即可训练 NMT 系统。这种基于注意力机制的编码器解码器模型结合去噪和回译技术, 在 WMT 2014 的法英和德英翻译中获得了 15.56 和 10.21 BLEU 分数,且能够利用少量的平行数据来提高翻译质量。
Oct, 2017
提出了一种基于单语语料的机器翻译方法,该方法使用深度学习技术将两种不同语言的句子映射到相同的潜在空间中,从而学习翻译而不使用任何标记数据,该方法在两种语言对的两个广泛使用的数据集上表现出色。
Oct, 2017
该研究提出了一种基于双向循环神经网络的并行句子抽取方法,旨在解决多语言自然语言处理应用中数据稀疏性的问题。通过从维基百科文章中提取句子对来训练机器翻译系统,实验证明采用该方法能够显著提高翻译性能。
Jun, 2018
该研究提出了一种有效的并行语料库挖掘方法,使用双语句子嵌入进行训练,通过引入硬负例来实现。该方法是基于语义相似度的,结果表明该方法可以用于重建平行文本,从而训练出 NMT 模型,与使用原始数据训练的模型相差不大。
Jul, 2018
本文提出了一种基于变分概率框架的深度潜变量模型,使用双语数据,利用拥有共性的语义信息与特性进行训练,使模型可以将并行语句进行源分离,得到隐含的语义向量,进而对单语数据进行预测。实验证明,该方法在无监督语义相似性评估方面的表现明显优于现有方法,并且还能在不适合使用简单词语重叠作为相似性指标的更难评估子集中发挥最大的作用。
Nov, 2019
本文提出了一种基于多任务学习方法,利用源端的单语言语言资源来解决神经机器翻译中由于缺少平行文本造成模型质量差的问题,并采用语义分析、句法分析和命名实体识别等辅助任务以将语义和 / 或句法知识注入到翻译模型中,实现了在英法、英波斯和英越三种翻译任务上的有效性验证。
May, 2018
该研究研究了如何在只有大型单语语料库的情况下学习翻译。提出了两种模型,一种是神经模型,一种是基于短语的模型。这些模型通过参数的精心初始化、语言模型的去噪效应和反向迭代自动生成的并行数据来提高翻译性能。在 WMT'14 英语 - 法语和 WMT'16 德语 - 英语 基准测试上,这些模型分别获得 28.1 和 25.2 BLEU 分数,比现有方法的 BLEU 分数高出 11 个分数。方法在英语 - 乌尔都语和英语 - 罗马尼亚语等低资源语言中也取得了良好的结果。
Apr, 2018
本文通过无监督的方式对单语词嵌入空间进行对齐,构建两种语言之间的双语词典,旨在为全自动的机器翻译提供潜在影响。实验表明该方法在英语 - 俄语和英语 - 中文等语言对中效果很好,且无需使用字符信息。
Oct, 2017