Apr, 2024

叠加提示:改善和加速检索增强生成

TL;DR我们提出了一种新颖的RAG提示方法,即超级叠加提示,可以直接应用于预训练的基于transformer的大语言模型,无需进行精调,以解决大语言模型在处理长上下文时的推理成本呈二次比例增长、输出质量受无关上下文干扰的问题。我们的方法可以同时提高各种问答基准测试的时间效率,并且在检索到的上下文相对于模型训练时的上下文更大的情况下显著提高准确性。