Oct, 2023

InstructRetro: 检索增强预训练后的指令调整

TL;DR通过检索进行预先训练的大型语言模型在困惑度和事实准确性方面表现更好,但现有预先训练的检索增强语言模型的规模仍然受限,因此限制了指导调整和零样本泛化的效果。我们提出了 Retro 48B,这是在指导调整之前预先训练的最大语言模型,通过从 1.2 万亿令牌中检索继续对 43B GPT 模型进行额外的 1000 亿令牌的预训练。Retro 48B 在困惑度方面在很大程度上优于原始的 43B GPT。在 Retro 上进行指导调整后,InstructRetro 在零样本问答任务上明显优于指导调整的 GPT。此外,我们发现可以剔除 InstructRetro 架构中的编码器,直接使用其解码器骨干,同时获得可比较的结果。预先训练与检索使其解码器在问答中更好地融入上下文,为获取更好的 GPT 解码器指明了有希望的方向。