本文提出了一种基于句子级检索的最近邻机器翻译框架,用于快速领域自适应,该框架旨在大大提高 kNN-MT 模型的解码和存储效率,并且不会影响翻译性能。实验证明,该框架不仅能够达到与 NMT 模型相同的速度,且能够显著减少存储要求。
Feb, 2023
本文分析了 $k$NN-MT 的理论和实证研究,以及针对多域实验和单词级别的分析,发现在特定情况下,结合 $k$NN-MT 和适配器的方法能够实现与在域测试集上微调相当的翻译性能,并在域外测试集上取得更好的性能,同时,优化上下文表示可以弥补低频特定领域词汇召回方面 $k$NN-MT 与微调的差距。
May, 2023
本文提出了一种快速的 $k$ 最近邻机器翻译模型,通过使用仅限于相同查询令牌的最近令牌级邻居来限制查询空间,从而大大提高了解码效率,并实现了与 $k$NN-MT 相当的性能表现,只比标准 NMT 模型慢两倍。
May, 2021
本研究提出了一种新的 kNN-MT 方法,使用轻量级的元 k 网络动态确定每个目标令牌的 k 值,该方法能够有效过滤检索结果中的噪声并显著优于传统的 kNN-MT 模型,在四个基准机器翻译数据集上得到了验证,并在其他领域展现了其普适性。
通过提出的多层感知器神经网络与 kNN-MT 系统结合,成功减少了冗余的检索操作,并显著降低了 kNN 检索的开销,虽然会导致轻微的翻译质量下降,但该方法可以与所有现有的 kNN-MT 系统配合使用。
Dec, 2023
本文提出了一种新的基于分块的 $k$NN-MT 模型,在机器翻译领域中具有显著的速度优势,同时实现了对域适应能力的支持。
May, 2022
本文提出一种改进机器翻译模型的方法,即将 NN search 前置,并通过最近邻知识蒸馏(NN-KD)训练基本 NMT 模型直接学习 NN 知识,可以更好地解决机器翻译中的过度纠正问题,并在保持训练和解码速度不变的情况下,实现了比 NN-MT 等现有方法更好的结果。
本文提出了一种用于领域自适应的非参数翻译解决方案 “k 最近邻机器翻译(kNN-MT)”,并通过在聚类的基础上通过对比学习的方式构建紧凑网络,提高了检索效率并且在大型数据集上取得了更好或相当的性能表现,同时对于不同领域的通用性很强。
Apr, 2022
通过使用多种语言的表示方法结合成一个数据存储,我们可以在低资源翻译质量上获得显著改进(高达 + 3.6 BLEU),同时对高资源翻译质量也有所提高(高达 + 0.5 BLEU)。我们的实验证实了通过使用语言相似性进行数据存储创建,可以实现四分之一大小的多语言数据存储,从而提高了翻译速度(提升了 5.3 倍).
Oct, 2023
本文研究并发现 kNN-MT 的性能下降问题,提出了一种信心增强的 kNN-MT 模型,结合鲁棒训练和两种扰动方式以达到在基准数据集上实现显着改进和更好的鲁棒性的效果。
Oct, 2022