Jun, 2023

自检索的长距离语言建模

TL;DR本文中,我们提出了一种用于从头开始联合训练检索增强语言模型的架构和训练流程,名为 Retrieval-Pretrained Transformer(RPT),并使用四个长程语言建模任务进行了评估,横跨图书、代码和数学写作,证明了与强基线相比,RPT 改善了整体的检索质量和困惑度。