Feb, 2024

LongAgent: 通过多智能体协作将语言模型扩展至 128k 上下文

TL;DR通过多智能体协作的方法,我们提出了一种名为 LongAgent 的方法,将大型语言模型(例如 LLaMA)的上下文窗口扩展到 128K,并在长文本处理方面展示了相对于 GPT-4 的潜在优势。LongAgent 中,一个领导者负责理解用户意图并指导团队成员从文档中获取信息。通过开发一种成员间的信息共享机制来解决因幻觉引起的回应冲突,我们的实验结果表明 LongAgent 在长文本处理方面提供了一种有希望的选择。使用 LLaMA-7B 实例化的智能体团队相较于 GPT-4 在 128k 长文本检索、多跳问题回答等任务中取得了显著的改进。