驱动好奇心的学习的计算理论
本文综述了心理好奇心对于人类智能的重要作用,阐述了人工好奇心与人类认知发展的联系及其应用场景,并对强化学习、推荐系统和分类方法等领域中已有的好奇心驱动学习方法进行综述,提出了深入研究的方向和未来的改进工作。
Jan, 2022
提出了一种基于好奇心驱动的算法,通过生成适当的马达速度来控制自主学习,使四旋翼可以通过障碍物并将航向朝向目标位置,实现了最优策略的学习和最大化奖励的能力。
Jul, 2023
本文认为好奇心是一种进化机制,能够在智能体的一生中鼓励有意义的探索,以暴露它于能够使其获得高报酬的经验。该文提出了一种基于元学习的产生好奇行为的问题,并使用元学习算法将代理人的奖励信号动态调整来解决问题。作者进一步提出使用元算法来扩大其适用性,并将其他构建块(例如缓冲器、最近邻模块和定制丢失函数)与神经网络结合使用。最终,本文提出的两种好奇心算法在图像导航、机器人和其他领域表现优于人类设计的已发表算法。
Mar, 2020
本文通过大规模实验,研究了无外部奖励下的” 好奇心驱动学习 “ 与外部奖励的比对,研究了用于计算预测误差的不同特征空间,并探究了在随机环境中使用基于预测的奖励的局限性。
Aug, 2018
本研究使用深度强化学习技术训练一种好奇心代理以促进物体检测模型在线学习。我们还提出了一种奖励函数,以权衡代理的两个目标:尽快完成训练或尽可能少地进行人工介入,并考虑了 drone 平台的部分物理特性。
Feb, 2019
通过实现以好奇心驱动的内在动机的神经网络,我们表明计算的内在动机模型可能解释婴儿发展视觉运动学习的关键特征,包括自我运动预测、物体注意以及物体获取等。
Feb, 2018
该研究对动物和机器好奇心进行了全面的、多学科的研究。研究人员提出了五个最重要的特点,包括 1)对非明显指示物的指向性,2)满足后停止,3)自愿接触,4)短暂,5)有条理的长期学习。此外,研究人员还展示了这些特性如何在强化学习代理中被实现,并提供了一个新的视角,以便未来将这些特性整合到寻求目标、决策的计算代理的行为中。
Dec, 2022
利用人工好奇心提高强化学习系统的探索能力,本文提出了一种利用贝叶斯惊奇度作为衡量模型参数先验和后验之间差异的方法,将其应用于代理模型的潜在空间中,大大降低计算成本,研究表明其对连续任务的环境探索和视频游戏分数的影响要好于当前最先进技术,同时具有对抗随机性环境的鲁棒性。
Apr, 2021
本研究使用虚拟婴儿代理,在无外部奖励的情况下,测试了与人类探索的动机类似的内在奖励功能,并发现了好奇心式的内在奖励和有关性交互的连续性有助于引发探索和生成动态的社交行为和强大的预测世界模型。
May, 2023
本研究提出一项理论架构,阐述了个体和社交因素对好奇心的影响,发现社交因素对好奇心的影响更为显著,并介绍了一组策略和技术,可以在学习过程中识别、引发和支撑好奇心。
Apr, 2022