用于束搜索再排序的简单基准线
本论文提出了增量束搜索方法,即在解码过程中重新排列束中的假设,以提高自然语言生成系统的性能,实验结果表明,该方法相对于传统束搜索方式,在 E2E 和 WebNLG 挑战测试集中分别使 BLEU 得分提高了 1.93 和 5.82 个百分点,在 E2E 挑战测试集上也比一种强大的再排序器表现更好。
Feb, 2021
本文探讨是否可以将 Beam Search 替换为更强大的以度量为驱动的搜索技术。通过对多个解码算法的探索和分析,发现最佳算法取决于目标度量的特性;作者提出的基于 Monte-Carlo Tree Search (MCTS) 的搜索方法在语言应用中具有很高的应用价值,为今后的研究方向提供了新视角。
Apr, 2021
该研究提出了一种基于 semantic-based similarity 和 truncating list 的在机器翻译中提高翻译质量的方法 Regularized MBR reranking framework (RMBR)。
Mar, 2022
本文探讨了神经机器翻译中的基准问题,并提出了三种易于实现的方法,使得翻译结果得到了明显提高,同时通过对改进的分析也揭示了基本神经机器翻译模型所存在的固有缺陷。研究还指出,在实验中选择一个强基准线是获得可靠实验结果的关键因素之一。
Jun, 2017
本篇论文研究神经机器翻译,提出使用最小贝叶斯风险解码优化翻译质量度量作为一种替代推论策略来优化自动翻译质量度量,实验结果表明,使用 BLEURT 作为质量度量指标产生的质量比传统 Beam-search 输出更好。
Nov, 2021
本文提出了几种方法解决 beam search 的扩展导致的机器翻译质量下降的问题,讨论了这些方法的最优停止准则,并展示了无超参数方法在中英翻译中的优异表现,超过了使用长度规范化启发式方法的 BLEU 值 2.0,并在所有方法中获得了最佳结果。
Aug, 2018
本文提出了一种基于语义相似度的代替奖励函数来优化 NMT 系统,在四种不同的语言翻译成英语的情况下,本文的方法不仅能提高 BLEU 和语义相似度的评估准确性,而且优化过程更快。
Sep, 2019
本文提出使用基于 BERTScore 评估指标的新型训练目标对神经机器翻译模型进行微调,以克服在训练过程中出现的过拟合偏见问题;作者提出三种生成软预测的方法,可使网络保持端到端的完全可微性,实验表明在四种不同的语言对上,微调目前具有一个强基线模型的 BLEU 分数提高了 0.58pp(3.28%),BERTScore 得分提高了 0.76pp(0.98%)。
Jun, 2021
该研究旨在提供一种用于跨语言检索模型的组织框架,并在 TREC 2022 NeuCLIR 中的三种语言测试集上实现基于此的可重复现的基准线。
Apr, 2023