在强化学习中,人工智能代理通过执行任务来最大化数值奖励,探索是至关重要的,因为代理必须在利用之前发现信息。熵和好奇心是促进有效探索的两种奖励方式。这篇论文基于自由能原理(FEP)提出了隐藏状态好奇心,并发现熵和好奇心可以实现高效探索,特别是两者结合。特别是,在好奇心陷阱方面,具有隐藏状态好奇心的代理展示出了韧性,而预测误差好奇心的代理则受到了干扰。这表明实施 FEP 可能增强强化学习模型的鲁棒性和泛化性,并潜在地调整人工和生物代理的学习过程。
May, 2024
稀疏奖励环境对于强化学习代理是具有挑战性的,本文提出了一种新的内在奖励,系统地量化探索行为并通过最大化代理路径的信息内容来促进状态覆盖,通过与其他探索性内在奖励技术(即好奇心驱动学习和随机网络蒸馏)进行比较,证明了该信息理论奖励具有高效探索,其在包括 Montezuma Revenge 在内的各种游戏中的表现优于其他方法。最后,我们提出了一种在离散压缩的潜在空间中最大化信息内容的扩展方法,提高了样本效率并推广到连续状态空间。
Oct, 2023
提出了一个基于多臂赌博机问题的代理模型,该模型根据环境的熵条件动态调整目标,从而鼓励在不同熵环境中出现新的行为和学习技能。
基于内部驱动的强化学习算法以目标状态和可控状态之间的相互信息为内在目标,在机器人操纵和导航任务中取得了明显的成果。
Feb, 2020
本文提出了一种基于 Intrinsic motivation 的强化学习方法,其奖励函数被定义为智能体状态与周围状态之间的互信息,实现了比以前的方法更好的效果,包括在没有任何任务奖励的情况下首次完成了 pick-and-place 任务。
Mar, 2021
研究人工智能代理和其环境的交互,探讨了在信息理论限制下如何通过强化学习算法使代理能够在无限时间范围内获得最大化的预期回报。首次提出了环境和代理之间因果信息的贝尔曼递归方程,与值函数的贝尔曼递归方程结合使用。
Mar, 2017
提出了一种基于好奇心驱动的算法,通过生成适当的马达速度来控制自主学习,使四旋翼可以通过障碍物并将航向朝向目标位置,实现了最优策略的学习和最大化奖励的能力。
Jul, 2023
本研究提出一种使用基于情景记忆的新奇性奖励机制的强化学习方法,能够克服以前算法中的问题,让代理在视觉环境中进行导航和行走的任务时能够优于 ICM。
Oct, 2018
本文通过大规模实验,研究了无外部奖励下的” 好奇心驱动学习 “ 与外部奖励的比对,研究了用于计算预测误差的不同特征空间,并探究了在随机环境中使用基于预测的奖励的局限性。
Aug, 2018
本文认为好奇心是一种进化机制,能够在智能体的一生中鼓励有意义的探索,以暴露它于能够使其获得高报酬的经验。该文提出了一种基于元学习的产生好奇行为的问题,并使用元学习算法将代理人的奖励信号动态调整来解决问题。作者进一步提出使用元算法来扩大其适用性,并将其他构建块(例如缓冲器、最近邻模块和定制丢失函数)与神经网络结合使用。最终,本文提出的两种好奇心算法在图像导航、机器人和其他领域表现优于人类设计的已发表算法。
Mar, 2020