Hebbian 学习网络中的主动推断
本研究通过系统性探索视觉 - 运动任务的一种方法,测试了主动推理框架的能力,该框架基于当代的神经科学,并通过基于奖励的学习产生像人类一样的行为。我们提出的神经主动推理代理模型使用人工神经网络来选择动作,以便根据它们将揭示的任务环境信息的非常短期预测和预期自由能的长期估计来选择动作,在代理人的运动能力受限时才出现预期的行为,并且只有当代理人能够足够长时间地预测未来的累积自由能时,预期行为才会出现,通过这些结果证明了 AIF 作为人类预期视觉引导行为的可信模型。
Nov, 2022
本文提出了一种建立在深度学习结构之上的主动推理智能体的神经架构,并使用多种形式的蒙特卡罗(MC)采样方法,从而使智能体在利用奖励进行任务时能够更加有效地学习环境动态和模拟未来状态转换。
Jun, 2020
该论文研究了基于自由能原理的主动推理对机器学习中的强化学习和示范学习问题的解决,并将此概念应用于标准问题山车问题,结果表明主动推理可以涵盖强化学习和示范学习技术。
Apr, 2019
受生物神经元可塑性启发,我们提出了一种搜索方法,通过寻找突触特异的赫比学习规则,使网络能在智能体的生命周期内持续自组织其权重,从而实现在一些强化学习任务中取得成功,同时对多种感官模态处理方式具有适应性。
Jul, 2020
通过动态规划,我们指的是人脑推断和施加与认知决策相关的运动轨迹的能力。最近的范式 —— 主动推断,为生物有机体的适应提供了基本见解,不断努力减小预测误差以限制在适合生活的状态中。在过去的几年中,许多研究表明,人类和动物行为可以用主动推断的过程来解释,无论是作为离散决策还是连续运动控制,这激发了机器人技术和人工智能领域的创新解决方案。然而,文献对于如何在不断变化的环境中有效规划行动仍缺乏全面的展望。本研究以建模工具使用为目标,深入探讨了主动推断中的动态规划主题,牢记生物目标导向行为的两个关键方面:理解和利用物体操纵的作用机会,以及学习自身与环境(包括其他代理者)之间的分层交互。我们从一个简单单元开始,逐渐描述更高级的结构,比较最近提出的设计选择,并为每个部分提供基本示例。本研究与传统的神经网络和强化学习的观点不同,指向主动推断中尚未开拓的方向:分层模型中的混合表示。
Feb, 2024
本研究介绍了一种结合了近期深度物品类神经网络的主题对象活跃推理(OBAI)的模型,该模型通过独立信念来表征不同物体,使用选择性注意力将输入路由到相应的物体插槽,并学习动态和生成模型,从而正确地将行动扰动物体从视频输入中分割,并将这些物体朝任意目标运动。
Sep, 2022
基于自由能最小化原则的主动推理理论,提出了一个输出 - 概率、时间预测、模块化人工神经网络结构,能够处理感觉运动信息,推理与行为相关的世界方面,并调用高度灵活、目标导向的行为,其中包括利用形成的地形图灵活驾驶、避免障碍和选择通往目的地的路径。另外,研究表明该学习代理适用于进行零样本推广,适用于不同地形的环境。
Feb, 2022
本文介绍了活跃推理的理论,并利用深度学习的最新进展,构建能够处理高维传感器数据并进行主动推理的复杂生成模型,这是深度主动推理在真实世界机器人导航任务中的首次应用。
Mar, 2020
本研究探讨了在没有接触到车的状态的情况下,使用深度主动推理(dAIF)代理在 OpenAI 的赛车基准测试中的表现,并通过无监督表示学习来学习状态推断和控制,结果表明我们的模型达到了与深度 Q 学习相当的性能,但与其他一些世界模型方法相比,vanilla dAIF 没有达到最先进的性能,本文讨论了当前模型实现的局限性和克服它们的可能架构。
Sep, 2021