本研究提出了同步双向神经机器翻译模型,通过同时进行从左到右和从右到左解码,以相互交互的方式预测输出,从而利用历史和未来信息,并在大规模数据上实验证明其优于强的 Transformer 模型,达到了中英文和英德文翻译任务的最新性能。
May, 2019
本文提出了一种交叉双向的解码器,它能同时进行从左到右和从右到左的目标词语生成,并且相较于自回归解码等传统解码方式在保持质量的情况下能实现达到 2 倍的解码速度提升。此外,作者还探索了同时预测多个相邻 token 的方法,以及根据目标序列进行分区解码的多向模型,这些方法也能够在不损失太多准确度的情况下进一步提高解码速度。
Oct, 2020
提出了一种同步双向序列生成模型,利用双向注意力网络实现从两个方向同时预测输出,解决了自回归解码方式生成长句时效率低,以及和未来内容关联性不足等问题,在神经机器翻译(英德、中英和英罗)以及文本摘要任务上,相比于自回归 Transformer,提高了生成质量且显著提升了解码速度。
Jun, 2019
本文提出了一种基于双向解码器的神经机器翻译模型,其中正向解码器按原有的方法工作,但加入了逆向解码器,以利用源语言和目标语言的双向信息,从而提高翻译质量。实验结果表明,该模型在中英文和英德文翻译任务上均能够显著提高 NMT 的效果。
Jan, 2018
开发 Bidirectional Beam Search(BiBS)算法来逼近推理双向神经序列模型中的 1-Best(和 M-Best)解码,并在可视化任务中验证该方法的高效性和效果。
May, 2017
本文中,我们提出了一种从外向内生成序列的解码框架,该框架通过动态规划等多种训练方法,支持多种模型结构,并在推土机 2023 转换任务上取得显著提高。
May, 2023
这篇论文提出了一种采用特殊占位符令序列生成过程具有双向性的方法,将生成过程视为一个完全连接图,有效提高了对话任务的性能。
Aug, 2019
该论文提出了一种基于句子编码技术的模型,通过使用双向 LSTM 进行单词级别的平均池化生成第一阶段的句子表示,并采用注意力机制替代平均池化,以更好地表示文本蕴含关系。最终,通过对斯坦福自然语言推理语料库的实验验证了该模型具有较少的参数以及比现有最佳的句子编码方法更高的性能。
May, 2016
介绍了一种使用自我知识蒸馏和双向解码的神经机器翻译模型,使用这种方法可以鼓励自回归 NMT 模型提前规划,实验表明该方法在多个机器翻译数据集上比强 Transformer 基线方法显著优秀。
Mar, 2022
该研究通过改进基于 Transformer 的异步分段双向解码策略,以提高翻译效率和准确性。实验结果表明,在处理长句子方面,与传统的单向翻译方法相比,我们的方法表现出更高的效率和改善的翻译质量。此外,研究还分析了句子长度对解码结果的影响,并探讨了模型在不同场景中的性能。这项研究的发现不仅为 NMT 领域提供了一种有效的编码策略,而且为未来的研究开辟了新的途径和方向。
Feb, 2024