内存学习:面向大规模语言模型的声明式学习框架
在人工智能领域,大型语言模型(LLM)代理通过自然语言提示来执行任务,消除了显式重新训练或精调的需要,尤其是在诸如常识问题和是 / 否查询等固定答案任务中。然而,将上下文学习应用于开放性挑战,例如诗歌创作,由于提供的示例的全面性和代理的理解问题内容的能力存在显著限制,导致输出与预期结果经常不一致。为了解决这一差距,我们的研究引入了用于 LLM 多代理的记忆共享(MS)框架,该框架利用实时内存存储和检索系统增强上下文学习过程。该系统中的每个 “记忆” 都捕捉了 LLM 代理提出的查询以及相应的实时响应,将来自各种相似代理的这些记忆聚合到所有代理共享的记忆池中。该框架不仅帮助代理识别特定任务的最相关示例,而且通过其他代理应用未来的记忆评估其潜在效用。对涉及代理特定功能的三个不同领域进行的实证验证表明,MS 框架显著提高了代理在开放性问题上的性能。此外,我们还讨论了在 MS 中哪种类型的记忆池和检索策略可以更好地帮助代理,并提供了 MS 的未来发展方向。代码和数据可在此 https URL 获取。
Apr, 2024
大型语言模型(LLM)基于代理近年来引起了研究和行业界的广泛关注。本文提出了对 LLM 基于代理的记忆机制进行全面调查,包括记忆的定义、需要、设计、评估以及在代理应用中的重要作用,并分析了现有工作的局限性和未来方向。
Apr, 2024
本文提出了一种基于内部工作记忆模块的决策制定代理,可以通过存储、混合和检索信息来改善其在不同下游任务中的训练效率和泛化能力,并进一步证明记忆微调可以增强所提出架构的适应性。
May, 2023
本文通过应用认知心理学的工作记忆框架来增强大型语言模型(LLMs)的架构,以解决其在人类记忆能力方面的限制,并提出了一种创新模型,包括集中的工作记忆中心和情景缓冲区,以提供更高的连续性,以实现复杂任务和合作场景中的细致语境推理。然而,对于情景记忆的优化编码、存储、优先级、检索和安全性仍需进一步研究,以促进发展具有更复杂、类似人类记忆能力的 LLM 代理。这表明记忆机制是人工通用智能领域的重要前沿。
Dec, 2023
提出一种新颖的可进化的 LLM(Large Language Model)智能体框架,称为 REMEMBERER,并将 LLM 配备了长期记忆,以便在不同的任务目标中利用过去的经验,这胜过具有固定示例或配备瞬态工作内存的 LLM 智能体。通过引入具有经验记忆的强化学习(RLEM)来更新记忆,整个系统可以从成功和失败的经验中学习,并在不微调 LLM 参数的情况下发展其能力。在两种强化学习任务集上进行了大量实验来评估所提出的框架,结果表明,通过不同的初始化和训练集,平均结果超过了先前的 SOTA 4%和 2%,证明了 REMEMBERER 的优越性和鲁棒性。
Jun, 2023
通过序列记忆和分块构建的最小认知体系架构用于学习语言,替代了使用深度学习的大型语言模型,并且能够从零开始学习人工语言,并提取支持学习的语法信息。研究表明这种简单的架构的强大性,并强调序列记忆作为语言学习过程的关键组成部分的重要性,这可能解释了仅人类发展了复杂语言的原因。
Feb, 2024
在大型语言模型(LLMs)中,介绍了 “社交学习” 的框架,其中模型通过自然语言以隐私保护的方式共享知识。我们提出并评估了两种 LLMs 之间的知识传递方法,第一种情景中,模型生成抽象提示用于教授任务,而我们的第二种方法中,模型通过生成合成示例来传递知识。我们在多个数据集上评估了这些方法,并以记忆作为隐私损失的代理进行了量化。这些受社交学习启发的技术得到了有希望的结果,原始数据的记忆化较低。特别是,我们表明使用这些方法的性能与使用原始标签和提示的结果相当。我们的工作证明了社交学习在 LLMs 中的可行性,建立了基础方法,并突出了几个尚未开发的领域的重要性。
Dec, 2023
DynaMind 是一种新颖的连续学习框架,旨在解决大语言模型(LLMs)的训练困难、知识融入问题,并提高输出准确性。通过引入记忆机制和模块化操作符,DynaMind 能够有效克服这些挑战。
Oct, 2023