Aug, 2022

Atlas: 基于检索增强语言模型的小样本学习

TL;DR研究表明,在大多数任务中,大规模语言模型在少量样本上具有出色的表现,然而,当知识是关键时,如问题回答和事实检查等任务,需要使用大量参数存储知识。本文提出了 Atlas,一种精心设计和预训练的检索增强语言模型,能够利用极少的训练样本学习知识密集型任务。我们在多种任务中进行了评估,包括 MMLU、KILT 和自然问题,并研究了文本索引的内容对模型效果的影响,表明它可以很容易地进行更新。值得注意的是,Atlas 仅使用 64 个例子就能在自然问题上达到 42% 以上的精度,在性能上优于具有 50 倍参数的 540B 参数模型 3% 以上。