最佳优先束搜索
本文提出了一种平衡生成质量和多样性的确定性搜索算法,并在四个自然语言生成任务中进行了实验,结果表明该算法相较于强基准表现更具多样性和自然性,同时维持高生成质量。
Nov, 2022
本文探讨是否可以将 Beam Search 替换为更强大的以度量为驱动的搜索技术。通过对多个解码算法的探索和分析,发现最佳算法取决于目标度量的特性;作者提出的基于 Monte-Carlo Tree Search (MCTS) 的搜索方法在语言应用中具有很高的应用价值,为今后的研究方向提供了新视角。
Apr, 2021
本文提出了一种可证明为最优的波束搜索算法,该算法可用于神经文本生成中,如神经机器翻译、摘要和图像字幕生成,通过引入有界长度奖励机制,避免了短假设的问题并提高了 BLEU 分数。
Aug, 2018
采用 Beam Search 解码思路得出的结果通常要优于最大后验概率解码方式,因为前者更加符合认知科学理论,这启示我们有必要提出一系列解码目标,明确地强化文本信息均匀分布的特性,以解决解码过程中存在的问题。
Oct, 2020
开发 Bidirectional Beam Search(BiBS)算法来逼近推理双向神经序列模型中的 1-Best(和 M-Best)解码,并在可视化任务中验证该方法的高效性和效果。
May, 2017
本报告提出了一种新的神经序列模型的训练方法来更好地利用束搜索算法,该方法通过引入介绍连续逼近束搜索的新方法来形成一个次微分的替代目标,在 Named Entity Recognition 和 CCG Supertagging 两个序列任务的实验中,优化此新的训练目标能够比交叉熵训练的贪婪解码和交叉熵训练的束搜索解码基线都得到实质性的改善。
Aug, 2017
通过 GPU 架构上的可变长度解码,我们提出了一个高效的批处理策略。相比固定宽度梁搜索和变宽度梁搜索,我们的方法降低了运行时长,同时匹配基准的 BLEU。此外,实验证明我们的方法可以加速其他领域的解码,如语义和句法分析。
Oct, 2020
本文提出了一种灵活的新方法,利用一个小型的神经网络 actor 来观测和操纵先前训练的解码器的隐藏状态,以无需额外的计算成本获得几乎全部的 beam search 带来的好处。我们介绍了使用一个伪并行语料库来训练 actor 网络,它是以类似于 BLEU 的目标质量指标对基础模型的 beam search 输出排名而生成的。我们的方法受到了早期研究的启发,但不需要强化学习,并且可以可靠地在各种模型上训练。在三个平行语料库和三个架构上的实验表明,该方法可以使翻译质量和速度大大提高,超过每个基础系统。
Apr, 2018