- AAAI带增强解码器输入的非自回归神经机器翻译
本文提出了两种增强解码器输入以提高 NAT 模型的翻译准确性的方法,并表明这些方法在 WMT14 英德任务和 WMT16 英罗马任务中比 NAT 基线高出 $5.11$ BLEU 分数和 $4.72$ BLEU 分数。
- AAAI逐句平滑规则化用于序列到序列学习
通过使用句子级的规则化方法,解决了在序列模型训练中,最大似然估计普遍存在的非平滑预测概率问题,并取得了在神经机器翻译任务中优越的性能。
- 越南语和英语之间的机器翻译:一项实证研究
本论文的研究目的是针对低资源语言对英越语言对进行机器翻译,通过构建历史上最大的越南 - 英语语料库以及采用最新的神经机器翻译模型进行广泛实验,从而实现最高 BLEU 得分。该研究为有效使用不同神经机器翻译模型提供了实际示例。
- 多语言自注意翻译模型的参数共享方法
本论文研究了多语言神经机器翻译中参数共享技术,发现完全参数共享方法能够提高 BLEU 得分,但是对于较为不同的语言,BLEU 得分反而下降。因此,我们提出了针对局部参数共享的方法,能够显著提高翻译精度。
- 噪声平行语料的双重条件交叉熵滤波
通过两个反向翻译模型计算每个句子对于嘈杂平行语料库的交叉熵分数,对分歧的交叉熵进行惩罚并按两个模型的交叉熵平均值加权。按这些分数排序或分阈值处理可得到更好的平行数据子集,该方法在去噪过程中实现了更高 BLEU 得分,并在 WMT2018 共 - EMNLP神经机器翻译快速适应新语言
本文提出了針對低資源語言進行神經機器翻譯系統適應的策略,基於大規模的多語言種子模型,通過將訓練擴展到相關低資源語言數據上,與高資源語言一起進行聯合訓練,實現了相似語言正則化策略,實驗表明在 4 個低資源語言環境下,BLEU 得分平均提高了 - ACL神经机器翻译中的日语谓词变化
本研究提出了一种基于谓词词形变化的日本语 - 英语神经机器翻译方法,将词汇表中各种动词形式压缩为更少的单词,并通过属性词汇信息生成低频词汇和处理未知词汇,有效地压缩词汇表的大小,并在翻译中提高了 BLEU 分数。
- 利用图卷积网络在神经机器翻译中挖掘语义
本论文首次将源句子的谓词 - 论元结构(即语义角色表示)信息融入神经机器翻译中,利用图卷积网络将语义偏差注入到句子编码器中,在英语 - 德语语言对上取得了 BLEU 分数上的提高。
- 多语言机器翻译的神经国际语
本研究将显式神经间语纳入多语言编码 - 解码神经机器翻译(NMT)体系结构中,证明该模型通过直接零 - shot 翻译(不使用中转翻译)并使用源语句嵌入来创建英语 Yelp 评论分类器,该分类器能够通过神经间语协调法也对法语和德语评论进行分 - 神经机器翻译中基于动态波束分配的快速词汇约束解码
该论文旨在介绍一种新的机器翻译解码算法 —— 词汇约束解码法,该算法能够快速而准确地在输出中包含预定的单词和短语,并探索模型与 BLEU 得分之间的关系,与此同时它还能够极大地优化计算复杂性。
- ACL使用贝叶斯优化的速度限制调整在统计机器翻译中的应用
本文基于贝叶斯优化的思想,提出了一种有效调整机器翻译中速度相关参数的方法,使翻译速度达到预设要求且 BLEU 分数最大化。在三种语言和两种速度约束条件下进行实验,结果显示相比于网格搜索和随机搜索,算法总体优化时间有所减少,此外本方法还可以解 - 面向低资源神经机器翻译的迁移学习
该研究提出了一种转移学习的方法,通过先训练一个高资源语言对以及将一些已学习的参数转移至低资源语言对,来初始化和约束训练,显著提高了 Bleu 分数,并将低资源机器翻译性能接近于强的基于语法的机器翻译系统,超过了其一个语言对的性能,并且用于重 - ACL神经对话模型多样性促进目标函数
本研究论文通过在神经网络里更改目标函数为 MMI 以替代传统的目标函数来解决对话响应生成任务中的普通、平凡的输出,实验证明这种方法产生了更多样、有趣和恰当的响应,在两个对话数据集上的 BLEU 评分和人类评估中获得了实质性的提升。
- 使用单语语料库进行神经机器翻译
本篇论文研究了如何利用丰富的单语语料库对神经机器翻译进行建模,结果表明在低资源的土耳其 - 英语和中英文聊天信息场景下,相较于短语和层级翻译,可以提高高达 1.96 和 1.59 的 BLEU 值,同时也适用于高资源语言,例如捷克语 - 英