思维中存:长期记忆使 LLMs 具备召回和事后思考能力
本文提出了一种名为 MoT 的新型框架,用于让 LLM 通过思考存储到外部记忆中来自我提升,实现推理和回答问题的能力的优化。实验结果表明,所提出的框架可以显著帮助 ChatGPT 在数学推理,常识推理,事实推理和自然语言推理方面提高其能力。
May, 2023
本文通过应用认知心理学的工作记忆框架来增强大型语言模型(LLMs)的架构,以解决其在人类记忆能力方面的限制,并提出了一种创新模型,包括集中的工作记忆中心和情景缓冲区,以提供更高的连续性,以实现复杂任务和合作场景中的细致语境推理。然而,对于情景记忆的优化编码、存储、优先级、检索和安全性仍需进一步研究,以促进发展具有更复杂、类似人类记忆能力的 LLM 代理。这表明记忆机制是人工通用智能领域的重要前沿。
Dec, 2023
通过实验展示了 RecallM 架构对 AGI 系统提供的改进的时间理解能力,从而提出了一种面向 AGI 系统的可适应和可更新的长期记忆机制。
Jul, 2023
在此论文中,我们重新审视了在大型语言模型时代中增强记忆的响应生成。我们提出了 Theanine 框架,该框架通过记忆时间线来增强大型语言模型的响应生成,这些时间线展示了相关过去事件的发展和因果关系。同时,我们还引入了 TeaFarm,这是一个基于虚拟情境的问题回答流程,解决了长期对话中 G-Eval 的局限性。
Jun, 2024
提出了 MemoryBank,这是一种采用 Ebbinghaus 遗忘曲线中的记忆更新机制的新型记忆机制,旨在解决长期交互中 LLM 的记忆缺陷问题,并通过与心理对话调整提高其同理心。通过实验研究,证明了 MemoryBank 能够成功提高聊天机器人在长期 AI Companion 中的表现能力。
May, 2023
通过使用参数高效的微调模式和计算仿生记忆机制,我们提出了一种新颖的个人化大语言模型方法,该方法在用户导向的生成任务中展示了卓越的效果和优越性能。
Sep, 2023
提出了一种新的 RET-LLM 框架,它为 LLMs 提供了一个通用的写 - 读内存单元,使它们能够从文本中提取、存储和检索知识,以便进行任务执行。通过 Davidsonian 语义理论,以三元组的形式提取和保存知识,在问答任务中展现出比基线方法更卓越的性能。此外,该框架在处理基于时间的问题回答任务时表现出了强大的性能,展示了它有效处理时态信息的能力。
May, 2023
本文提出了一种基于内部工作记忆模块的决策制定代理,可以通过存储、混合和检索信息来改善其在不同下游任务中的训练效率和泛化能力,并进一步证明记忆微调可以增强所提出架构的适应性。
May, 2023
在人工智能领域,大型语言模型(LLM)代理通过自然语言提示来执行任务,消除了显式重新训练或精调的需要,尤其是在诸如常识问题和是 / 否查询等固定答案任务中。然而,将上下文学习应用于开放性挑战,例如诗歌创作,由于提供的示例的全面性和代理的理解问题内容的能力存在显著限制,导致输出与预期结果经常不一致。为了解决这一差距,我们的研究引入了用于 LLM 多代理的记忆共享(MS)框架,该框架利用实时内存存储和检索系统增强上下文学习过程。该系统中的每个 “记忆” 都捕捉了 LLM 代理提出的查询以及相应的实时响应,将来自各种相似代理的这些记忆聚合到所有代理共享的记忆池中。该框架不仅帮助代理识别特定任务的最相关示例,而且通过其他代理应用未来的记忆评估其潜在效用。对涉及代理特定功能的三个不同领域进行的实证验证表明,MS 框架显著提高了代理在开放性问题上的性能。此外,我们还讨论了在 MS 中哪种类型的记忆池和检索策略可以更好地帮助代理,并提供了 MS 的未来发展方向。代码和数据可在此 https URL 获取。
Apr, 2024