Feb, 2024

自我增强上下文学习用于无监督词语翻译

TL;DR最近的研究表明,尽管大型语言模型在少样本设置中展示了强大的词汇翻译或双语词典归纳能力,但在无监督场景中(特别是对于资源较少的语言),它们仍无法与 ' 传统 ' 的基于映射方法的性能相媲美。为了解决这一挑战,我们提出了自我增强的上下文学习(SAIL)用于无监督的双语词典归纳:从零样本提示开始,SAIL 迭代地通过从一个 LLM 中归纳一组高置信度的词汇翻译对用于上下文学习(ICL),然后再次应用于同一个 LLM 进行 ICL。我们的方法在两个广泛覆盖的双语词典归纳基准测试中都显著优于 LLMs 的零样本提示,并且在整体上优于基于映射的基准线。除了达到现有无监督双语词典归纳性能的最新水平外,我们还对 SAIL 进行了全面的分析,并讨论了其局限性。