如果 Beam Search 是答案,那么问题是什么?
论文针对神经机器翻译 (NMT) 系统中出现的一些问题进行了研究,发现这些问题主要与最大后验概率推断 (MAP) 解码以及解码过程中使用的决策规则有关,而非 NMT 的统计假设或最大似然估计算法。作者倡导使用考虑翻译分布整体性的决策规则,证明了最小贝叶斯风险解码的近似方法具有良好的效果。
May, 2020
本文探讨是否可以将 Beam Search 替换为更强大的以度量为驱动的搜索技术。通过对多个解码算法的探索和分析,发现最佳算法取决于目标度量的特性;作者提出的基于 Monte-Carlo Tree Search (MCTS) 的搜索方法在语言应用中具有很高的应用价值,为今后的研究方向提供了新视角。
Apr, 2021
本文提出了一种有效启发式算法,用于近似搜索全输出空间中最佳解,解决了诸多自然语言处理任务中的难点问题,并为非单调性得分函数设计了有效的单调逼近方法,提出了一种内存缩减变体的最佳优先搜索,具有类似的有利搜索偏差,并在时限内运行。
Jul, 2020
在神经机器翻译模型中,提出通过自我评估来训练模型以估计其自身输出的质量,并在解码过程中使用该质量估计来指导生成过程,从而显著提高翻译质量。在最小贝叶斯风险解码中使用内部质量估计来剪枝,不仅可以进一步提高翻译质量,还可以将推理速度降低两个数量级。
Oct, 2023
介绍了一种自适应树搜索算法,用于在翻译模型中寻找高分输出。该算法是一种确定性的 Monte Carlo 树搜索的变体,可以探索不受常规假设约束的新型模型。通过实证研究,该方法在自回归模型中找到的输出与 beam 搜索相比具有更好的模型得分,并表明随着模型的发展,beam 搜索或重新排名方法可能掩盖了进一步的改进。
Feb, 2022
本研究分析了一种比 beam search 更有效的基于最小贝叶斯风险译码的决策规则,并设计了基于搜索和估计效用的成本分离近似算法,探讨了以模式为导向的策略对译文翻译的效果,实验证明这种方法在三种语言对中均能提高翻译质量。
Aug, 2021
本报告提出了一种新的神经序列模型的训练方法来更好地利用束搜索算法,该方法通过引入介绍连续逼近束搜索的新方法来形成一个次微分的替代目标,在 Named Entity Recognition 和 CCG Supertagging 两个序列任务的实验中,优化此新的训练目标能够比交叉熵训练的贪婪解码和交叉熵训练的束搜索解码基线都得到实质性的改善。
Aug, 2017
该研究对语言生成任务和解码策略之间的相互作用进行了全面分析,测量了生成文本属性随着解码策略和任务的变化情况,并使用人工和自动评估发现了之前观察到的和令人惊讶的结果,如语言生成中的多样性与质量之间的平衡是非常特定于任务的,而模式搜索方法如光束搜索在机器翻译中表现出色,但在故事生成中会导致不连贯和重复的文本。
Mar, 2022
本文提出了一种灵活的新方法,利用一个小型的神经网络 actor 来观测和操纵先前训练的解码器的隐藏状态,以无需额外的计算成本获得几乎全部的 beam search 带来的好处。我们介绍了使用一个伪并行语料库来训练 actor 网络,它是以类似于 BLEU 的目标质量指标对基础模型的 beam search 输出排名而生成的。我们的方法受到了早期研究的启发,但不需要强化学习,并且可以可靠地在各种模型上训练。在三个平行语料库和三个架构上的实验表明,该方法可以使翻译质量和速度大大提高,超过每个基础系统。
Apr, 2018