神经机器翻译中基于动态波束分配的快速词汇约束解码
本文提出了一种在神经机器翻译中加入词汇约束的简单有效算法,该算法可以在推理时注入术语约束,而不影响解码速度,并且无需修改训练流程,使用自定义字典即可运行,实验结果表明,我们的方法在英德 WMT 数据集上可以提高基线和之前方法的翻译质量。
Apr, 2020
本研究描述了基于有限状态机和多堆栈解码的受约束神经机器翻译解码方法,支持目标端约束以及对应对齐输入文本跨度的约束条件,在多个翻译任务上表现出较好的性能,通过注意力受约束解码的方式减少用户约束翻译时的错置和重复。
May, 2018
本文提出了一种新的框架,将用户提供的限制条件作为外部记忆存储,并以柔性方式进行处理,从而解决在现实世界中限制条件可能存在的问题,实验结果表明,我们的方法能够在处理嘈杂的限制条件时取得相当大的 BLEU 收益,这些结果使我们能够将所提出的方法应用于不需要用户帮助生成限制条件的新场景中并证明了该方法确实能够提高自动生成的约束下的翻译质量。
Aug, 2019
本研究提出了一种将传统 SMT 模型与神经机器翻译相结合的方法,从而提高翻译质量。该方法利用现有的基于短语的 SMT 模型计算基于短语的解码成本,并将其用于重新排列 n 个最佳 NMT 输出。研究表明,利用强制解码成本对 NMT 输出进行排序可以成功提高四种不同语言的翻译质量。
Nov, 2017
本论文研究了 LLMs 在信息提取等任务中生成复杂输出结构的问题,提出了一种基于形式语法约束的解码方法,通过合理的限制保证生成的符号序列能够具有语法正确性,同时在大型符号集信息提取和实体消歧方面取得了良好的效果,结果表明在缺乏训练数据、后调较为昂贵的场景下,采用基于形式语法约束的解码策略能够有效提升模型生成结构化输出的能力。
May, 2023
介绍了 Grid Beam Search 算法,可以在任何生成序列的模型中使用,通过词汇约束来扩展 beam 搜索,并且在进行交互式预测翻译和领域自适应翻译实验中表现出良好的性能提升。
Apr, 2017
本文提出一种使用参数化的神经机器翻译目标函数的简单约束解码算法来改善翻译质量的方法,并在一个基准数据集上进行了验证,结果表明该算法在翻译质量和时间效率方面都优于现有方法。
Nov, 2022
该研究提出了一种基于连续优化的神经机器翻译解码方法,将离散问题转化为连续优化问题,并使用梯度法解决该问题。研究结果表明,该解码框架非常有效,可以改善交叉模型的翻译效果。同时,该框架也具有优点和缺点与重排框架相比。
Jan, 2017
该研究提出了一种直接将词汇约束集成到神经机器翻译模型中的方法,通过将词汇约束向量化为连续的键和值,并利用 NMT 模型的注意力模块来表征词汇约束对,并在四种语言对上表明了该方法的优越性。
Mar, 2022