论述性神经机器翻译的连贯性建模
本文提出了一种基于强化学习目标的训练方法,明确优化词汇凝聚力和连贯性两个学术界公认的话语质量指标,实现了在不牺牲翻译忠实度的前提下,比其他竞争性方法更有效地提高了多语种、多领域文档翻译的凝聚和连贯性。在中英语言对中,词汇凝聚力和连贯性分别提高了 2.46 和 1.17 个百分点,BLEU 分数和 F_BERT 分数分别提高了 0.63 和 0.47 个百分点。
Oct, 2020
本研究提出了一种无域限制的神经模型,可用于度量多个方面的连贯性,并能在生成新语句时保持连贯性,该模型包括区分性模型和生成性模型,以及一种新的基于神经潜变量马尔科夫生成模型,可捕获文本中句子之间的隐含连贯性依赖关系,并在多个连贯性评估方面取得了最先进的表现,为处理语篇上下文生成连贯性文本迈出了一步。
Jun, 2016
本研究提出一种层次神经网络模型,通过多任务学习,同时预测文档层次的信息连贯得分和词级别的语法角色,利用两个任务之间的归纳转移,提高模型泛化能力,并在不同任务中达到了新的最优表现。
Jul, 2019
本研究使用基于语篇的奖励机制结合强化学习来引导模型生成连贯的长文本,利用神经网络奖励模型来促进跨句子排序,实验结果表明,使用此奖励机制的生成模型比传统的交叉熵或使用常见奖励得分的强化学习训练的模型产生的文本更连贯,更少的重复性。
May, 2018
提出了一种基于缓存的方法来对神经机器翻译中的一致性进行建模,并采用一个新的层次来计算缓存中的目标词的分数,实验结果表明,所提出的基于缓存的神经模型相对于几种最先进的 SMT 和 NMT 基线的翻译性能都有了显著的提高。
Nov, 2017
本文提出了一种新的神经语言模型,它具备两个神经鉴别器,可以在句子层面(内聚性)和段落层面(连贯性)提供反馈信号,并且使用了一种称为负关键序列训练的简单而有效的策略梯度方法进行训练。结果表明,相对于基线(基于双向 MLE 训练的复发关注神经语言模型),我们的方法有效改善了模型表现。
Nov, 2018
该研究提出了一种文档的连贯性评估方法(DCoEM),在考虑了四种连贯方式(参考,连词,替换和词汇连贯)的情况下,为测量文档翻译的连贯性做出贡献,并通过最近的文档级 NMT 系统的评估结果表明我们的方法在评估文档级翻译方面是实用和必要的。
Aug, 2022