利用层次化聚合树增强长期记忆的检索增强生成
通过模仿人脑记忆层次结构,我们提出了分层记忆 Transformer(HMT)框架,以提高模型的长上下文处理能力,并通过在限定上下文和长上下文模型上的评估验证了其有效性。
May, 2024
使用大型语言模型递归生成摘要 / 记忆,从而提高长期记忆能力,进而解决开放领域对话系统中遗忘重要信息的问题。实验证明,该方法可以在长对话环境中生成更加一致的回应。
Aug, 2023
利用大语言模型(LLMs)在检索增强的上下文学习中的层次图思路(HGOT),该框架通过将复杂查询细分为可管理的子查询,并使用最近提出的引文召回和精度指标来评估思想的质量,从而增强了 LLMs 的真实性。
Feb, 2024
本文提出了历史感知的分层 Transformer - 多轮开放域对话系统,能够利用历史交互信息与时下言语背景生成基于上下文且相关性强的对话回应,并在大规模多轮对话数据集上取得了优异的表现结果。
Feb, 2023
我们提出了一种注意力门控分层记忆网络 (AGHMN),其中包括卷积神经网络、双向门控循环单元、分层内存和注意力门控循环单元等模块,以便于实现实时聊天机器人的情感识别和历史上下文的建模和回溯。
Nov, 2019
近年来对长期记忆对话代理的兴趣越来越浓,这导致了使用检索增强生成(RAG)的语言模型的快速发展。本论文主张,在从长对话数据中进行有效的检索面临两个独特的问题:1)基于时间 / 事件的查询,要求模型根据时间或对话事件的顺序(例如,星期二的第三次对话)检索先前对话的信息;2)需要周围对话上下文才能理解的模糊查询。为了更好地开发能够应对这些挑战的 RAG 代理,我们生成了一个包含模糊查询和基于时间的问题的新数据集,该数据集是基于最新的长形模拟对话数据集的。我们证明了标准的 RAG 方法在处理这些问题时效果不佳。然后,我们开发了一种新的检索模型,结合了链式搜索方法、标准向量数据库检索和提示方法以消除查询的歧义,并证明了这种方法在解决这些任务上显著改善了现有方法的效果。我们相信,这个新数据集和更先进的 RAG 代理可以成为有效的记忆增强对话代理的关键基准和垫脚石,可用于各种人工智能应用。
May, 2024
通过使用基于 LLM 的代理体系结构和将对话与人物和时间事件图进行关联,我们介绍了一个机器 - 人类管道来生成高质量的非常长期的对话,并通过人类注释者对其进行检验和编辑,以确保其长程一致性和对事件图的关联。通过这个管道,我们收集了一个包含 300 个回合和平均 9K 个记号的非常长期对话的数据集。基于该数据集,我们提出了一个全面的评估基准来衡量模型中的长期记忆,在问题回答、事件摘要和多模态对话生成任务方面。我们的实验结果表明,LLM 在理解冗长对话和理解对话中的长程时间和因果动态方面存在挑战。使用长上下文 LLM 或 RAG 等策略可以提供改进,但这些模型仍然远远落后于人类的性能。
Feb, 2024
通过动态上下文编辑的方式,我们引入了一种新的方法,将信息检索重新设想,使长文本上下文成为可塑的外部知识,并通过与最新的知识编辑技术相结合,与有关信息进行交互式收集和整合,从而使大型语言模型能够进行复杂的推理步骤,有效增强了推理能力。
Jun, 2024
我们提出了 MemWalker,这是一种将长上下文处理成摘要节点树的方法,模型通过迭代提示的方式导航该树以寻找相关信息并一旦收集足够信息便回答问题,在长文本问答任务上,我们方法的性能优于使用长上下文窗口、重复和检索的基线方法。通过交互式阅读文本,MemWalker 还提升了解释能力,突出了推理步骤,并准确指出与查询相关的文本片段。
Oct, 2023