本文介绍了使用简化的三维环境(ViZDoom)训练智能体进行复杂推理和探索的基准方案,以提高Deep-RL领域的可访问性和减少对大量计算资源的需求。
Apr, 2019
通过在物理引擎中嵌入具有挑战性的符号任务(Sokoban,井字棋和围棋),引出了一组需要长时间视觉、推理和电机控制的任务,研究了现有的强化学习算法在这样的物理系统中的表现。同时,研究提出了使用预训练的专家游戏玩家为强化学习提供有用提示,缩小抽象规划和物体控制之间的差距的方案。
Sep, 2020
本文评估了深度强化学习在现实世界机器人中的应用,包括学习知觉和运动等复杂技能的案例研究以及相关挑战。
Feb, 2021
通过与基于传统工程方法的专业工业集成器的比较,研究表明基于深度强化学习的工业装配方法不仅可以超越已有的工业装配方法,还能超越人类运动系统,并且数据说明还有巨大的优化空间。
Mar, 2021
该研究使用模块化建筑块和机器人操作器解决了机器人装配发现的挑战性问题,并通过全局优化和强化学习等策略提高了性能和鲁棒性。
Mar, 2022
提出转世强化学习理论作为强化学习(RL)研究的另一种工作流程或问题类别,以便能够在设计迭代之间或不同代理之间重复使用或转移先前的计算工作(例如,学习策略); 研究关注现有子优政府的有效传输,并提出了一种简单的算法来解决其限制,最后,在Atari 2600游戏,挑战性的互动任务以及导航平流层气球等问题上展现了转世RL与tabula rasa RL相比的优势, 证明这是一种可能提高RL实际应用和进一步民主化RL的另一种方法。
Jun, 2022
通过提出一系列机器人任务,不需要额外的专业探索便可解决的优化问题,研究发现标准强化学习方法往往由于折扣而忽视长期影响,而通用层次强化学习方法则需要额外的抽象领域知识。
本文介绍了一个模块化框架PIC4rl-gym,通过融合 ROS2 和 Gazebo 以及深度强化学习技术,提高自主导航的灵活性、效率和计算成本,实现智能体的训练和测试,并通过基于完整的指标集选择不同的导航任务进行基准测试。
Nov, 2022
我们开发了一种精心实现的库,其中包含一种样本高效的离线深度强化学习方法,以及用于计算奖励和重置环境的方法,一个广泛采用的机器人的高质量控制器,和几个具有挑战性的示例任务。我们希望这些有希望的结果和我们的高质量开源实现将为机器人学界提供一个工具,以促进机器人强化学习的进一步发展。
Jan, 2024
本研究解决了深度强化学习(DRL)在机器人应用时面临的复杂性和成本问题。通过对DRL在开发现代机器人能力方面成功案例的综合分析,揭示了其关键因素和未被充分探索的领域,并提出未来研究的方向,重点在于稳定高效的RL范式和整合多种能力的系统性方法。这项工作为RL从业者和机器人研究人员提供了重要的见解,帮助他们利用RL的优势开发更具能力的实际机器人系统。
Aug, 2024