一个受人类启发的具有大量长期上下文的主要记忆的阅读代理
GraphReader 是一个基于图的代理系统,能够处理长篇文本,并在 LV-Eval 数据集上表现出优异性能。
Jun, 2024
通过多智能体协作的方法,我们提出了一种名为 LongAgent 的方法,将大型语言模型(例如 LLaMA)的上下文窗口扩展到 128K,并在长文本处理方面展示了相对于 GPT-4 的潜在优势。LongAgent 中,一个领导者负责理解用户意图并指导团队成员从文档中获取信息。通过开发一种成员间的信息共享机制来解决因幻觉引起的回应冲突,我们的实验结果表明 LongAgent 在长文本处理方面提供了一种有希望的选择。使用 LLaMA-7B 实例化的智能体团队相较于 GPT-4 在 128k 长文本检索、多跳问题回答等任务中取得了显著的改进。
Feb, 2024
我们提出了 MemWalker,这是一种将长上下文处理成摘要节点树的方法,模型通过迭代提示的方式导航该树以寻找相关信息并一旦收集足够信息便回答问题,在长文本问答任务上,我们方法的性能优于使用长上下文窗口、重复和检索的基线方法。通过交互式阅读文本,MemWalker 还提升了解释能力,突出了推理步骤,并准确指出与查询相关的文本片段。
Oct, 2023
通过使用基于 LLM 的代理体系结构和将对话与人物和时间事件图进行关联,我们介绍了一个机器 - 人类管道来生成高质量的非常长期的对话,并通过人类注释者对其进行检验和编辑,以确保其长程一致性和对事件图的关联。通过这个管道,我们收集了一个包含 300 个回合和平均 9K 个记号的非常长期对话的数据集。基于该数据集,我们提出了一个全面的评估基准来衡量模型中的长期记忆,在问题回答、事件摘要和多模态对话生成任务方面。我们的实验结果表明,LLM 在理解冗长对话和理解对话中的长程时间和因果动态方面存在挑战。使用长上下文 LLM 或 RAG 等策略可以提供改进,但这些模型仍然远远落后于人类的性能。
Feb, 2024
在人工智能领域,大型语言模型(LLM)代理通过自然语言提示来执行任务,消除了显式重新训练或精调的需要,尤其是在诸如常识问题和是 / 否查询等固定答案任务中。然而,将上下文学习应用于开放性挑战,例如诗歌创作,由于提供的示例的全面性和代理的理解问题内容的能力存在显著限制,导致输出与预期结果经常不一致。为了解决这一差距,我们的研究引入了用于 LLM 多代理的记忆共享(MS)框架,该框架利用实时内存存储和检索系统增强上下文学习过程。该系统中的每个 “记忆” 都捕捉了 LLM 代理提出的查询以及相应的实时响应,将来自各种相似代理的这些记忆聚合到所有代理共享的记忆池中。该框架不仅帮助代理识别特定任务的最相关示例,而且通过其他代理应用未来的记忆评估其潜在效用。对涉及代理特定功能的三个不同领域进行的实证验证表明,MS 框架显著提高了代理在开放性问题上的性能。此外,我们还讨论了在 MS 中哪种类型的记忆池和检索策略可以更好地帮助代理,并提供了 MS 的未来发展方向。代码和数据可在此 https URL 获取。
Apr, 2024
通过动态上下文编辑的方式,我们引入了一种新的方法,将信息检索重新设想,使长文本上下文成为可塑的外部知识,并通过与最新的知识编辑技术相结合,与有关信息进行交互式收集和整合,从而使大型语言模型能够进行复杂的推理步骤,有效增强了推理能力。
Jun, 2024
使用大型语言模型递归生成摘要 / 记忆,从而提高长期记忆能力,进而解决开放领域对话系统中遗忘重要信息的问题。实验证明,该方法可以在长对话环境中生成更加一致的回应。
Aug, 2023
开放域对话系统的关键是提供长期陪伴和个性化互动,长期对话代理 (LD-Agent) 模型可以通过事件概括和个性化管理模块,增强自动化认知和问题解决能力。
Jun, 2024
我们引入了基于大型语言模型的信息获取代理系统 KwaiAgents,探索了其性能,并介绍了 Meta-Agent Tuning (MAT) 框架以确保在不同代理系统中优化的开源模型的表现。
Dec, 2023