Nov, 2023

通过匹配风格缩小零样本与少样本机器翻译之间的差距

TL;DR使用大型语言模型在单语环境下主要训练的研究发现,通过零样本和少样本的情境学习可以很好地实现机器翻译的泛化能力。然而,尽管零样本翻译的表现相对良好,但与少样本设置相比仍存在可辨别的差距。本文的研究探讨了导致这种差距的因素,并发现通过与目标语料库的写作风格匹配可以在很大程度上缩小这种差距(约为 70%)。此外,我们还探索了提高零样本基线的潜在方法,而无需并行演示样本,从而为提高翻译度量标准提供了有价值的见解。