关键词autoregressive translation
搜索结果 - 7
- ACL非自回归翻译的成果
最近的研究发现非自回归翻译方法与自回归方法在性能上存在一定差距,且传统的评估指标不太相关。本文通过系统评估四种非自回归方法,并结合人工评估,发现尽管性能差距在缩小,但当前领先的非自回归方法仍然不如自回归方法,在更可靠的评估指标下表现不佳。此 - ACL大规模重访非自回归翻译
本文系统研究了缩放对非自回归翻译的影响,发现缩放可以缓解其模型的弱点,并提升其翻译性能。同时,作者还研究了 NAT 编码器和解码器对翻译性能的影响,并建立了新的基准数据集作为未来研究的强有力基础线。
- N-Gram 最近邻机器翻译
本文提出了一种新颖的 $n$-gram 最近邻检索方法,可以提高机器翻译的精度并适用于 Autoregressive Translation 和 Non-Autoregressive Translation 模型,改进后的方法在 AT 和 - ICLR混合回归神经机器翻译
本文提出了一种叫做混合回归翻译的翻译模型,它结合了自回归翻译和非自回归翻译模式的优势,通过在自回归过程中预测部分结果,再通过非自回归方式填充其余结果的方式,开发出了一种基于这两种模式的翻译模型,并对其效率和准确性进行了评估和比较。
- 通过广义激进解码实现自回归翻译的无损加速
通过自回归翻译和非自回归翻译的协同作用,提出了广义激进解码 (GAD)—— 无损加速自回归翻译的新解码范式,在保证翻译质量的前提下,大大提高了翻译效率,可用于 Abstractive Summarization 等其他序列到序列任务,是未来 - AAAI基于课程学习的非自回归神经机器翻译的微调
通过引入课程学习到 NAT 的微调过程中,本文提出的方法在 BLEU 度量上比以往的 NAT 基线有很大改进,同时在推理期间的速度比 AT 基线快 10 倍以上。
- EMNLP非自回归机器翻译的基于提示的训练
该论文提出了一种新的方法,通过利用隐藏状态和单词对齐的提示,帮助训练非自回归翻译模型,实现了比以前的非自回归翻译模型更显着的改进,甚至可以与强大的基于 LSTM 的自回归翻译模型基线相媲美但在推理速度上快一个数量级。