Jun, 2024

AI 原生记忆:从 LLMs 通往 AGI 的路径

TL;DR通过集成记忆,我们设想了从大型语言模型(LLMs)到人工通用智能(AGI)的一种路径。我们认为 AGI 应该是一个 LLM 作为核心处理器的系统,其中除了原始数据外,该系统的记忆还可以存储推理过程中得出的大量重要结论。相比仅处理原始数据的检索增强生成(RAG)方法,这种方法不仅更紧密地连接语义相关的信息,还可以在查询时简化复杂的推理。最终,每个个体 / 人都应该有自己的大型个人模型,即可以参数化和压缩所有类型记忆的深度神经网络模型(因此是 AI 本地的)。最后,我们讨论了 AI 本地记忆作为(主动的)参与、个性化、分发和社会在 AGI 时代的变革基础设施的巨大潜力,以及相应的隐私和安全挑战与初步解决方案。