本文介绍一种利用基于依存词对的稀疏特征的新型重排序方法,该方法在汉英翻译实验中取得了 1.21 BLEU 点的显著提高。
Aug, 2016
使用依赖通用模式的强大重排序方法,能从少量的标注数据中学习到依赖语法上下文的精细词序模式,并在所有语法树的层级上应用,通过实验验证在零样本和少样本场景下相比强基准模型始终有优势。
Oct, 2023
本文使用 LSTM 循环神经网络,建立了一种基于单词对和对齐的新型神经排序模型,成功地解决了机器翻译中的重排序问题,并在 NIST OpenMT12 测试中实现了显著性能提升。
Dec, 2015
本文介绍了如何使用双语平行数据集来模拟目标语序,在改进了位置编码机制的基础上,提出了一种新的序列重排序方法来显式地模拟源语句子的重排序信息,同时实验证明,该方法在多种翻译任务中均有效。
Apr, 2020
本文介绍了基于 Tree-to-String 模型的重新排序系统,并使用公开工具来完成任务。我们使用 Moses 工具包构建了翻译模型,然后应用 Moses 中的 Chart Decoder 对句子进行重新排序。通过实验发现,该方法在不同语言对组合中的 BLEU、Kendall-Tau 和 Hamming 指标上均有显著改善,同时提出了进一步改进的可能方向。
Feb, 2013
本文研究不同语言的词序,并假设一个与词序无关的模型将在转移到远程外语时表现更好。通过在英语语料库上训练依赖解析器,并在 30 种其他语言上评估它们的转移性能,我们比较基于递归神经网络(RNN)和修改的自我注意体系结构的编码器和解码器。严格的实验和详细的分析表明,基于 RNN 的架构在传输到接近英语的语言时表现良好,而自我注意的模型具有更好的整体跨语言可转移性并在远程语言上表现特别好。
Nov, 2018
本研究针对神经机器翻译中的迁移学习方法展开研究,发现在源语言和目标语言间无或很少平行语料时,配合的语言与源语言词序差异会对迁移学习的效益产生负面影响。为了解决这种差异性,我们提出预先调整辅助语言句子的次序以便与源语言统一词序并对父级模型进行训练。实验表明,消除差异性对于提高翻译质量来说具有显著的改善作用。
本文针对源语言和目标语言单词顺序的不同问题,提出了一种基于 “圣经” 语料库和跨语言词表示的依存句法跨语言迁移方法。该方法在训练前改变源语言语料的顺序,使得在欧洲语系以外的语言中达到更高的精度。在多语言数据集上,该方法在 68 个树库(38 种语言)的实验中表现良好,并在 12 种非欧洲语言的 16 个树库中实现了 3.3%的平均 UAS 绝对精度提高。
Mar, 2019
许多研究已经发表了关于如何在统计机器翻译中处理单词重排序的问题,然而,这个领域还有很多挑战需要面对,因此作者提出了一种综合性的调查来描述如何在不同的 SMT 框架和作为单独的任务中对单词重排序进行建模,并通过基于大量语言知识的定性分析,论证了在不同语言对中选择最适合他们的 SMT 框架时,一些语言事实可以非常有用。
Feb, 2015
研究表明,使用基于语法的统计机器翻译加上使用神经注意力机器翻译模型的重新排序组件进行机器翻译的效果较好,尤其对于语法正确性方面有较大提升。
Oct, 2015