USHER: 无偏采样的回顾经验回放
本文提出了一种基于 HER 和 MERL 的方法 ——SHER,采用失败经验重用和最大熵概率推断模型,用于在具有稀疏奖励的 DRL 环境中进行有效学习,并在 Open AI 机器人操作任务中进行了评估,实验结果表明,相对于 HER 及其变种,我们提出的 SHER 在具有挑战性的手部操作任务中取得了最新的成果,并且稳定性更高,在不同随机种子上实现了非常相似的表现。
Feb, 2020
采用前视经验回放(HER)技术,通过利用过去的经验来改进基于强化学习代理训练的目标导向机器人操作任务的采样效率,本文提出了一种使用先前学习的简单任务来引导代理在探索中选择更有益动作的方法。我们通过在多个块操纵任务中与 HER 和其他更高效变体算法性能的对比实验中展示了使用我们提出的方法可以更快地学习有效策略,包括采样效率和计算时间。
Oct, 2023
本研究提出了一种名为 Robust Model-based Hindsight Experience Replay(RoMo-HER)的框架,利用机器人操作环境中的动力学模型增强样本效率,相比于其他模型在多个机器人模拟环境中具有更高的样本效率。
Jun, 2023
提出了一种基于聚类的采样策略,利用成就目标的属性对轨迹进行分组,并在此基础上采样经验,用于解决多目标强化学习中稀疏奖励的问题。实验结果表明,该方法在三个机器人控制任务中具有显著的优化效果,可以缩短模型收敛时间和提升成功率。
Aug, 2022
本文介绍了一种基于目标导向的强化学习新算法框架 Hindsight Goal Generation,该框架通过生成有助于智能体在短期内实现的前瞻性目标以指导其在长期内实现实际目标的路径,以显著提高采样效率和处理奖励稀疏性问题。在多项机器人操作任务中,实验证明了该算法的有效性和优越性。
Jun, 2019
本文提出了一种名为 Hindsight Experience Replay 的新颖技术,它可以有效地学习来自于稀疏二元奖励的知识,避免了复杂奖励工程,并且可以与任意离线 RL 算法相结合,被视为一种隐式的课程。通过在三种不同的任务上进行实验,推动、滑动和拿取 - 放置,每个任务只使用指示任务是否完成的二元奖励,我们演示了该方法在操作机器人手臂上的实际应用。我们的消融研究表明,Hindsight Experience Replay 是训练在这些有挑战性的环境中成功的关键因素,并且我们展示了在物理仿真中训练的策略可以部署在物理机器人上,并成功地完成任务。
Jul, 2017
通过利用环境动态生成虚拟实现目标的模型相关再标记方法,本文提出了模型 (MHER)。模型同时执行强化学习和监督学习来实现高效的政策改进,通过实验在多个基点任务和模拟机器人环境中显示出比以前的 model-free 和 model-based 多目标方法具有明显更高的样本效率。
Jul, 2021
本文介绍了一种基于接触能量的优先选择机制,用于解决强化学习中多目标机器人操作任务中稀疏奖励收集成功经验低效的问题,并在各种机器人操作任务中对该方法进行了评估。
Dec, 2023