Apr, 2024

基于大型语言模型的智能体的记忆共享

TL;DR在人工智能领域,大型语言模型(LLM)代理通过自然语言提示来执行任务,消除了显式重新训练或精调的需要,尤其是在诸如常识问题和是 / 否查询等固定答案任务中。然而,将上下文学习应用于开放性挑战,例如诗歌创作,由于提供的示例的全面性和代理的理解问题内容的能力存在显著限制,导致输出与预期结果经常不一致。为了解决这一差距,我们的研究引入了用于 LLM 多代理的记忆共享(MS)框架,该框架利用实时内存存储和检索系统增强上下文学习过程。该系统中的每个 “记忆” 都捕捉了 LLM 代理提出的查询以及相应的实时响应,将来自各种相似代理的这些记忆聚合到所有代理共享的记忆池中。该框架不仅帮助代理识别特定任务的最相关示例,而且通过其他代理应用未来的记忆评估其潜在效用。对涉及代理特定功能的三个不同领域进行的实证验证表明,MS 框架显著提高了代理在开放性问题上的性能。此外,我们还讨论了在 MS 中哪种类型的记忆池和检索策略可以更好地帮助代理,并提供了 MS 的未来发展方向。代码和数据可在此 https URL 获取。