- UniZero: 通用高效规划与可扩展潜在世界模型
UniZero 是一种基于 Transformer 的新增方法,通过解耦潜在状态和历史信息,能够更好地捕捉长期依赖关系,提供了更加广泛和高效的潜在空间规划,相比 MuZero-style 算法在 Atari 100k 基准测试中表现更好,且 - 决策蛇:基于混合选择序列建模的强化学习
基于 transformer 模型和 Mamba 模型,我们提出了一种用于决策制定和长期记忆的 Decision Mamba-Hybrid (DM-H) 方法,并通过实验证明在长期和短期任务中达到了最先进的性能,同时在线测试效率比基于 tr - 面向具有上下文和时间敏感的长期记忆的对话系统
近年来对长期记忆对话代理的兴趣越来越浓,这导致了使用检索增强生成(RAG)的语言模型的快速发展。本论文主张,在从长对话数据中进行有效的检索面临两个独特的问题:1)基于时间 / 事件的查询,要求模型根据时间或对话事件的顺序(例如,星期二的第三 - ACL通过调整和多分支推理增强低参数 LLMs 的普通代理能力
通过构建特定于代理的数据和有监督微调模型,以及设计有效激活大型语言模型推理能力的提示方法,我们提出了一种综合的方法来提高大型语言模型作为代理的性能,并通过在 AgentBench 的五个代理任务上的评估取得了令人满意的结果。
- 通过混合和改善历史实现不断演进的记忆
为了构建人类化的聊天机器人,构建一个长期记忆是至关重要的。本文提出了一个新颖的记忆方案 CREEM,通过混合过去的记忆并引入精炼过程来改善聊天机器人回应的整体效果和一致性,确保一个更加明智和动态发展的长期记忆。
- PerLTQA: 一个个人长期记忆数据集,用于问题回答中的记忆分类、检索和合成
该研究通过引入 PerLTQA 数据集,结合语义和经验记忆,包括世界知识、个人资料、社交关系、事件和对话,旨在调查个性化记忆在 QA 任务中的应用,强调了记忆整合在 QA 任务中的重要性。
- 理解长期记忆对公共卫生干预大型语言模型驱动聊天机器人自我揭示的影响
通过分析 1252 个通话记录和对九名用户进行访谈,我们研究了具有长期记忆功能的大型语言模型驱动的语音聊天机器人 CareCall。我们发现长期记忆提高了健康信息披露并通过提供熟悉感改善了用户对聊天机器人的看法。然而,我们也观察到长期记忆对 - 利用掩码特征重建提炼三维物体检测的时间知识
通过知识蒸馏,从少量的帧中获取来自教师探测器的长期记忆,以平衡鸟瞰图 3D 目标检测中的精确性和效率,并通过生成器产生用于重建学生特征的新特征。在学生模型中输入完整帧时还探索了时间关系知识。在 nuScenes 基准测试上验证了该方法的有效 - 开放世界游戏的语言代理角色扮演
介绍了一种语言角色扮演代理系统(LARP),它通过包含记忆处理和决策辅助的认知架构,环境交互模块以及促进各种人格之间对齐的后处理方法,提升了语言代理和开放世界游戏之间的互动,并改善了游戏体验。
- 通过可操控性和可组合性实现视觉智能和语言智能
该研究探索了多模态大型语言模型在处理复杂的多步骤任务中的能力,重点研究了模型的可操控性、可组合性以及对长期记忆和上下文理解的应用。通过评估 800 个导向性对话的结果,本研究发现不同任务的完成难度存在明显差异,强调了开发结合长期记忆和上下文 - AirFL-Mem: 通过长期记忆改进通信 - 学习的权衡
提出了一种名为 AirFL-Mem 的新方案来缓解深衰落对过空中远程联邦学习的影响,并证明了它与理想通信条件下的联邦平均算法 (FedAvg) 具有相同的收敛速度,而现有方案的性能通常受到误差限制。实验结果验证了长期记忆机制在缓解深衰落方面 - 理解 AI 认知:受人类记忆机制启发的推理神经模块
我们提出了一个由感知、记忆和推理构成的基于 PMI 框架的方法,通过聚合感知信息并在推理模块中与多源记忆进行交互与整合,实现了对当前感知信息更全面准确的解释,应用于改进问题回答任务、关系计算和图像分类任务等,提高了模型的效果。
- 在大型语言模型中,递归总结实现了长期的对话记忆
使用大型语言模型递归生成摘要 / 记忆,从而提高长期记忆能力,进而解决开放领域对话系统中遗忘重要信息的问题。实验证明,该方法可以在长对话环境中生成更加一致的回应。
- ReLU 和加法门控递归神经网络
通过替换传统的循环门中的乘法和 Sigmoid 函数为加法和 ReLU 激活函数,该研究提出了一种可以在更低计算成本下维持长期记忆用于序列处理的机制,从而在受限制硬件上实现更高效的执行或更大模型。此机制能够在保持较高的计算效率的同时,捕捉到 - RecallM: 时序上下文理解与问答的一种架构
通过实验展示了 RecallM 架构对 AGI 系统提供的改进的时间理解能力,从而提出了一种面向 AGI 系统的可适应和可更新的长期记忆机制。
- 面向世界模型骨干网络的对比:循环神经网络,Transformer 和 S4
本文探讨了替代循环神经网络的 S4 模型和 Transformers 模型在增强学习模型中的应用及其优势,提出了第一个基于 S4 模型的世界模型,S4WM,其在各项测试中展现了超越 Transformers 的长期记忆和训练效率,结果为模型 - 增强语言模型的长期记忆
提出了一种名为 LongMem 的框架,该框架通过引入长期记忆机制,使得语言模型能够利用历史上下文信息,从而使得模型在文本生成等任务中取得了优异效果。
- 那些不是你的记忆,是别人的:在聊天机器人中植入错误信息
本文研究了聊天机器人长时记忆机制,发现它容易受到误导,记住错误信息并在后续对话中回答。我们用 BlenderBot2 和 BlenderBot3 等模型对其漏洞性进行了演示和评估,发现当误导信息存在于长时记忆中时,聊天机器人更容易以其为事实 - 基于记忆增强的在线视频异常检测
该研究介绍了一个名为 MOVAD 的智能汽车实时系统,它利用只能捕捉器固定摄像头拍摄的视频进行信息提取和到不同时间段的信息关联来及时响应异常情况。该系统包含视频分析技术和短期记忆和长期记忆两个部分,能够在 DoTA 数据集的测试中取得比目前 - 评估 3D 迷宫中的长期记忆
本文介绍了 Memory Maze,这是一个专门设计用于评估智能体长期记忆的三维随机迷宫领域,包括在线的强化学习基准测试、离线数据集和离线探测评估。我们发现当前算法在小迷宫上的表现很好,但在大迷宫上还不及人类表现,未来有待进一步进行算法设计