- MM机器翻译中利用元信息的神经和统计方法
本文研究了利用元信息及更丰富的上下文方法来改善机器翻译质量,首要关注输入文本的类别信息,采用最先进的神经网络方法在统计机器翻译框架下解决该问题,实验结果在某些文本类别上 BLEU 评分提高了 3%。
- EMNLP基于单词预测的神经机器翻译
本文提出了一种通过预测目标语句中词汇的方法,直接对编码器和解码器中隐藏状态向量进行监督,从而提高了表示质量和机器翻译的效率,实验证明在中英翻译任务和德英翻译任务中 BLEU 得分分别提高了 4.53 和 1.3。
- 注意力全是你需要的
本文提出一种基于注意力机制的 Transformer 模型,优于使用循环或卷积神经网络的现有机器翻译模型,且可并行训练、训练时间更短,使得 BLEU 评分得以显著提高,并成功将该模型应用于英语句法分析等任务。
- ACL通过二进制代码预测的神经机器翻译
本文提出了一种新的神经机器翻译系统输出层计算方法,基于预测每个单词的二进制码,可以在最佳情况下将输出层的计算时间 / 内存需求缩小到对数级别。此外,本文还介绍了使用纠错码和结合 softmax 和二进制码来提高鲁棒性的两种高级方法。两个英日 - ACL基于字符串到树的神经机器翻译方法
本文介绍了一种简单的方法,通过翻译成线性化的、词汇化的组成树来融合有关目标语言的语法信息,实验结果表明,与同一数据集上训练的语法无关的神经机器翻译系统相比,WMT16 德英新闻翻译任务的 BLEU 评分得到了明显提升。对语法感知系统的翻译进 - EMNLP通过字节对编码学习相关语言之间的可变长度单位
本文研究了使用字节对编码(称为 BPE units)以及拼音音节作为翻译任务基本单元的效果, 结果表明,BPE units 作为翻译单元略优于拼音音节单元, 并且更适用于非元音书写系统的语言。
- COLING神经机器翻译的预翻译
使用词汇短语转换(phrase-based machine translation)方法预处理输入,进而提升神经机器翻译(NMT)的翻译质量,在英德翻译任务中,使用该方法的性能跃升 2 个 BLEU 分数,同时分析了初始系统质量对最终结果的 - ECCV不透过物体生成标题
该论文探讨图像字幕的新评估视角,并引入了一项名词翻译任务,通过从一组名词到字幕的翻译实现了相对图像字幕生成性能,还研究了称作 BLEU 的指标中各个单词类别的下限和上限。
- ACL不需显式分段的全字符级神经机器翻译
该研究提出了一个无需分词的神经机器翻译模型,在 WMT'15 数据集上使用多语言字符级编码器和基于字符卷积神经网络的模型,不仅速度快,泛化性能好,而且能够跨多语言实现高质量普适翻译,效果优于子词级编码器。
- EMNLP将 AMR 转换为文本生成问题,作为旅行商问题
这份研究报告介绍了一种使用 AMR-to-text 文本生成方法,将 AMR 图划分为若干个片段,在解决不对称广义旅行商问题的同时,训练最大熵分类器估计其中的旅行成本,并使用 TSP solver 找到优化解决方案。最终,在 SemEval - AAAI依存词对利用于统计机器翻译中的重新排序:交换还是不交换?
本文介绍一种利用基于依存词对的稀疏特征的新型重排序方法,该方法在汉英翻译实验中取得了 1.21 BLEU 点的显著提高。
- 主题感知神经机器翻译引导对齐训练
本文提出了一种有效的方法来偏置序列到序列神经机器翻译模型(NMT)的注意机制,使其趋向于研究过的词对齐模型。我们展示了我们的新型引导对齐训练方法如何在真实生活的电商文本翻译中提高了翻译质量,克服了许多未知单词和大型类型 / 令牌比。我们还表 - EMNLP将离散的翻译词典融入神经机器翻译
本文提出使用离散的翻译词典,通过使用 NMT 模型的 attention 向量选择需要聚焦的源单词的词典概率,从而缓解 NMT 在翻译低频词汇时出现的错误,并进行了两种方法的实验,结果显示翻译质量(BLEU)得分有明显提高。
- AMU-UEDIN 参加 WMT16 新闻翻译任务: 以基于注意力的 NMT 模型作为基于短语的 SMT 的特征函数
本文提出了将基于注意力的神经翻译模型与基于短语的统计机器翻译方法集成的方法,并使用有效的 GPU 批处理算法。在 WMT 2016 共享任务上,该方法的英俄翻译系统表现早期略逊于基于纯神经网络的系统,但在限制系统方面表现优异。而其俄英翻译系 - 神经机器翻译的词汇操作
本文提出了一种句子级或批量级词汇表来缓解神经机器翻译模型中需使用大词汇表的问题。此方法根据源句子中每个单词或短语的翻译选项,选择非常小的目标词汇表,并基于单词翻译模型或双语短语库来实现。实验结果表明,该方法在英法翻译任务中的 BLEU 分数 - ACL基于混合词字模型实现开放词汇神经机器翻译
本文提出了一种用于实现开放词汇神经机器翻译的新型字符 - 词汇结合方案,比基于字符的方案更易于训练且不会产生未知单词,同时在 WMT'15 英译捷克任务中最高 BLEU 分数达到 20.7。
- CVPR使用分层循环神经网络进行视频段落字幕生成
利用分层循环神经网络和时空注意力机制生成视频字幕,在 YouTube 和 TACoS 数据集上验证具有更高 BLEU 得分。
- ACL神经机器翻译中的生僻词问题解决方案
本文介绍一种利用词对齐算法的数据增强方法来解决神经机器翻译中 out-of-vocabulary 词的翻译问题,并结合字典翻译在 WMT14 英 - 法翻译任务上实现比不使用该方法更高的 BLEU 分数。