基于技能的模型驱动增强学习
本研究提出了一种基于模型的强化学习算法,将以前任务的先验知识与在线动态模型适应相结合,实现了高效学习,并且成功地应用于各种复杂机器人操纵任务。
Sep, 2015
本文提出了一种探索方法,将先前学习的基本技能及其动态与前瞻性搜索相结合,用于操作策略的强化学习,并且表明该方法比当前最先进的RL方法更快地学习到复杂操作策略,并获得更好的策略收敛结果。
Nov, 2018
该论文提出了一种用于强化学习中学习动态全局模型的方法,通过将学习全局动态模型的任务分解为学习本地动态的上下文潜向量和条件预测下一个状态来实现此目的,并通过鼓励上下文潜向量在预测正向和反向动态方面有用来编码动态特定信息。该方法在各种模拟机器人控制任务中实现了优异的泛化能力,超过了现有的强化学习方案。
May, 2020
本文提出了一种基于示教引导的强化学习方法,该方法通过提取任务中共享的子任务结构,从而显著提高学习效率,并且在迷宫导航和复杂机器人操纵任务上进行了验证。
Jul, 2021
本文研究了如何将技能融入强化学习智能体的训练,提出了基于技能的新方法Hierarchical Kickstarting(HKS),并在复杂环境下的游戏NetHack及其他基线测试中验证了其表现优于其他方法,并认为利用预定义技能为具有大的状态-动作空间和稀疏奖励的强化学习问题提供了一个有用的归纳偏差。
Jul, 2022
LEAGUE是一种集成任务计划和技能学习框架,利用任务计划器的符号界面指导基于深度强化学习的技能学习,同时创建抽象状态空间以实现技能重用,并可以在任务计划系统内学习操作技能,不断提高其能力并解决更多任务。
Oct, 2022
通过使用状态条件生成模型在技能空间中加速探索,同时提出低层次的剩余策略来适应未知的任务变化,从而在与先前工作的比较中显着加快了探索速度,并跨四个不同于那些用于构建技能空间的具有挑战性的操作任务进行了验证。
Nov, 2022
利用演示可以显著提高模型学习效率,在这项工作中,我们确定了利用演示进行模型学习的关键因素,即策略预训练,有针对性的探索和演示数据的过采样,这三个阶段构成了我们的基于模型的RL框架。
Dec, 2022
通过离线数据集学习的、能够在不同领域中应用的多功能技能是一项全新的离线技能学习框架 DuSkill 的核心,通过引导式扩散模型生成可以应用于任务的多功能技能,从而增加不同领域中策略学习的稳健性。
Mar, 2024