ACLJun, 2024

A + B:优化 LLMs 以释放协同潜力的一般生成器 - 阅读器框架

TL;DR检索增强生成(RAG)是一种有效的解决方案,用于为大型语言模型(LLM)补充必要的知识。我们提出了一个新的 “生成 - 然后阅读” 的流程以替代检索阶段,通过 LLM 自身的生成来解决该流程的性能瓶颈。本论文系统性探索了多种基础模型和类型的组合,并证明了不同功能的基础模型和对话模型适合生成者 A 和阅读者 B,它们的组合在复杂场景中持续表现优异。此外,我们通过连续学习将 “A + B” 框架扩展到涉及源文档的场景,从而将外部知识直接集成到 LLMs 中。这种方法不仅有效地获取新知识,还解决了适应后的安全性和实用性的挑战。本论文强调了 “A + B” 框架的多功能性,并展示了其在各个领域中增强 LLMs 实际应用的潜力。