无监督的语句改写
本文提出了一种将改写生成任务视为无监督机器翻译的新方法,通过将大规模无标签单语语料库拆分成多个簇并使用这些簇的对训练多个 UMT 模型,然后基于这些 UMT 模型生成的改写语句对,可以训练出一个统一的代理模型,用于生成改写句子,该方法避免了对双语句对的依赖,同时也可以让人类干预模型,使用不同的过滤标准生成更多元的改写语句。在现有的改写数据集上进行的实验表明了该方法的有效性。
Sep, 2021
本文研究了基于转移学习的无监督方法生成高质量的同义改写,其中采用了任务自适应、自监督学习和名为 Dynamic Blocking 的新型解码算法。该方法在问答数据集和 ParaNMT 数据集上均取得了最新的性能,并且在不同语言改写中具有良好的迁移性能。
Oct, 2020
提出了一种基于单语语料的机器翻译方法,该方法使用深度学习技术将两种不同语言的句子映射到相同的潜在空间中,从而学习翻译而不使用任何标记数据,该方法在两种语言对的两个广泛使用的数据集上表现出色。
Oct, 2017
本研究提出了一种全新的方法,在没有平行数据的情况下,只利用单语数据即可训练 NMT 系统。这种基于注意力机制的编码器解码器模型结合去噪和回译技术, 在 WMT 2014 的法英和德英翻译中获得了 15.56 和 10.21 BLEU 分数,且能够利用少量的平行数据来提高翻译质量。
Oct, 2017
即使有深度学习和大规模语言建模的最新发展,对于低资源语言的机器翻译任务仍然是一个挑战。我们提出了一种训练策略,依赖于从单语语料库中挖掘的伪平行句对和从单语语料库中反向翻译的合成句对。我们尝试了不同的训练计划,并在基于仅反向翻译数据训练的基线上实现了高达 14.5 BLEU 分(从英语到乌克兰语)的改进。
Oct, 2023
本研究提出了一种基于深度强化学习的渐进式无监督改写方法,使用变分自动编码器生成种子改写,然后使用一种新的奖励函数来指导渐进调整种子改写,从而实现在不同域中高质量改写。在 4 个数据集上的结果表明,该方法在自动度量和用户研究方面优于监督学习和无监督学习的当前先进技术。
Jul, 2020
该研究研究了如何在只有大型单语语料库的情况下学习翻译。提出了两种模型,一种是神经模型,一种是基于短语的模型。这些模型通过参数的精心初始化、语言模型的去噪效应和反向迭代自动生成的并行数据来提高翻译性能。在 WMT'14 英语 - 法语和 WMT'16 德语 - 英语 基准测试上,这些模型分别获得 28.1 和 25.2 BLEU 分数,比现有方法的 BLEU 分数高出 11 个分数。方法在英语 - 乌尔都语和英语 - 罗马尼亚语等低资源语言中也取得了良好的结果。
Apr, 2018
该研究提出了一种两阶段的语义解析框架,第一阶段利用无监督的语义模型将未标记的自然语言转化为规范化语句,第二阶段使用自然语言解析器解析输出结果得到目标逻辑形式,该训练过程被分成了预训练和循环学习两个阶段,通过三项定制的自监督任务激活无监督的语义模型,实验结果表明该框架是有效的且与监督式训练相兼容。
May, 2020
提出并实现了一种基于抽取 - 编辑方法的无监督神经机器翻译,与以往仅使用错误积累法的基准性方法相比,在多个语言对和领域(包括低资源语言)的实验中表现更加优异。
Apr, 2019
提出了一个概率框架,用于多语言神经机器翻译,特别针对无监督翻译。通过使用一个新型的跨语言翻译损失项,自然地利用其他包含辅助平行数据的语言作为源或目标语之一。实验证明,在大多数方向上,我们的方法导致在 WMT'14 英语 - 法语、WMT'16 英语 - 德语和 WMT'16 英语 - 罗马尼亚语数据集上,BLEU 得分比最先进的无监督模型高,并且在罗马尼亚语 - 英语方向上,我们获得了比最佳无监督模型高 1.65 的 BLEU 优势。
Feb, 2020