本文介绍了一种新的重排序方法,利用神经网络和基于依存性的嵌入来预测两个源单词之间的依存关系,以确定翻译的单词顺序,实现了在中英翻译中统计显著的 0.57 BLEU 分数的提高。
Feb, 2017
本文提出了一种基于深度神经网络(DNN)的序列学习方法,使用多层长短时记忆(LSTM)解码目标序列并展现了其在英法翻译任务中优于传统短语模型翻译的成果,同时还发现调整源语句中单词的顺序可以有利于优化问题的解决。
Sep, 2014
许多研究已经发表了关于如何在统计机器翻译中处理单词重排序的问题,然而,这个领域还有很多挑战需要面对,因此作者提出了一种综合性的调查来描述如何在不同的 SMT 框架和作为单独的任务中对单词重排序进行建模,并通过基于大量语言知识的定性分析,论证了在不同语言对中选择最适合他们的 SMT 框架时,一些语言事实可以非常有用。
Feb, 2015
本文研究了使用双向长短时记忆循环神经网络进行中文分词的方法,实验结果表明,该方法在传统和简体中文数据集上均取得了最佳的性能。
Feb, 2016
本文介绍了如何使用双语平行数据集来模拟目标语序,在改进了位置编码机制的基础上,提出了一种新的序列重排序方法来显式地模拟源语句子的重排序信息,同时实验证明,该方法在多种翻译任务中均有效。
Apr, 2020
研究表明,使用基于语法的统计机器翻译加上使用神经注意力机器翻译模型的重新排序组件进行机器翻译的效果较好,尤其对于语法正确性方面有较大提升。
Oct, 2015
提出了一种以神经网络为基础的三重方法,用以改善统计机器翻译,并在阿拉伯语 - 英语和中文 - 英语翻译上实现了显著改进,包括新的神经网络特征、张量层和多任务学习。
Jun, 2015
本研究提出了一种基于双向长短期记忆递归神经网络(BLSTM-RNN)的统一标记解决方案,可应用于各种标记任务,包括词性标注、分块和命名实体识别,该方法利用从无标记文本中学习的一组独立任务特征和内部表示,并不需要特定的任务知识或复杂的特征工程,在所有这三个标记任务中获得了几乎最先进的性能。
Nov, 2015
提出一种普遍的贝叶斯学习框架,利用三种方法模拟 LSTM-RNN 和 Transformer LMs 的模型参数、神经激活选择和隐藏输出表示的不确定性,使用神经结构搜索自动选择优化网络内部组件,并使用有效的推断方法来降低计算成本,并在 AMI 会议转录和 LRS2 超叠话音频道的语音识别任务中实验验证,相对于基线 LSTM-RNN 和 Transformer LMs,在困惑度和字错误率方面均取得了一致的性能提升。
Aug, 2022
本文提出一个名为简单循环 NMT 的新的循环神经网络机器翻译体系结构,该体系结构基于一类快速且弱循环单元,使用层归一化和多个注意力机制。在 WMT14 英德和 WMT16 英罗曼尼亚基准上的实验表明,我们的模型作为 LSTMs 的有效替代品,可以在显著降低计算成本的情况下实现更好的结果。
May, 2018