提出了一种新的强化学习算法 -“隐式和双向课程算法”(IBC),该算法能够在无需演示数据的情况下,通过辅助主体和双向目标课程实现自主学习,与现有的自主强化学习方法相比表现更好且具有更广泛的适用性。
May, 2023
基于强化学习的自主车辆训练算法,最小化人为干预,通过学习进展实时调整训练过程,安全地重置车辆状态,取得更好的驾驶性能和较少的人工重置。
May, 2024
通过提出动态协同(Alice 和 Bob)的兴趣课程,使用一种适当的奖励机制,有效地进行无人监督的强化学习,用于环境感知系统中的智能体的训练
Mar, 2017
研究探讨了如何在动态的环境下使用自动生成的任务大纲来改善智能体的效果,介绍了使用目标的有效性、可行性和覆盖面的考虑来构建有用的任务大纲的新技术,并在 2D 和 3D 环境中展示了成功应用。
Sep, 2019
本文介绍了自动课程学习(ACL)的相关文献,并对当前状态进行了概述,旨在促进现有概念的交叉和新思想的出现。ACL 是深度强化学习成功的中坚力量,可用于改善样本效率和渐进性能,组织探索,鼓励泛化或解决稀疏奖励问题,等等。
Mar, 2020
通过提出自动课程设计和目标建议模块,来提高强化学习中的多任务目标采样效率,并在机器人和导航任务中展示了比现有方法更好的性能。
Jun, 2020
该研究论文提出了一种两阶段自适应教学方法,以提高深度强化学习(DRL)智能体的性能,主要包括使用过程生成任务、自动课程学习(ACL)和探索课程等关键词。
Apr, 2020
提出了 AGCL,一种基于确定性有限状态自动机(DFA)和面向对象马尔可夫决策过程(OOMDP)表示法的自动生成课程的方法,该方法在格子世界和基于物理仿真的机器人领域中的实验表明,AGCL 产生的课程在时间阈值性能上比最先进的课程学习和自动机引导强化学习技术实现了性能的提高。
Apr, 2023
本文提出了一种基于逆向强化学习的方法,用于训练机器人完成目标导向任务,该方法自动生成适应智能体表现的初始状态课程,即使面对目前最先进的强化学习方法无法解决的困难仿真导航和纤细操纵问题也可取得显著成果。
Jul, 2017
提出了一种基于 Adversarial training 的方法,用于 Reinforcement learning 中任务发现的问题,可以实现在不需要任何先验环境知识的情况下,对多元化任务的高效自动学习,并且能够解决传统上存在的稀疏奖励问题。
May, 2017