本文研究应用 Imitation Learning 和 transfer learning 方法解决 Duckietown 场景下的机器人车道跟踪问题,并通过 sim-to-real 方法进行实际环境迁移,最终比较了三种 Imitation Learning 方法和两种 sim-to-real 方法的优缺点。
Jun, 2022
本篇综述涵盖了深度强化学习中模拟转真实环境的基本背景,包括不同方向的方法和应用场景,重点讨论了域随机化、域自适应、模仿学习、元学习和知识蒸馏等方法及其存在的机遇和挑战。
Sep, 2020
这篇论文旨在介绍模仿学习(IL)及其基本假设和方法,提供领域内最新进展和新兴研究的详细描述,讨论了解决模仿学习相关挑战的常见方法,并提出未来研究的潜在方向,全面指导机器人和人工智能领域中日益增长的模仿学习研究。
Sep, 2023
本论文介绍了仿真学习的基本概念、假设、方法及其算法,探究其与机器学习、控制论等领域的关系,为机器学习专家与机器人及应用人工智能专家提供知识储备与工具。
Nov, 2018
本论文提出了一种基于元学习的方法,在使用任务特定轨迹生成模型提供动作空间以便快速探索的同时,训练机器人智能体以适应各种动态条件,以解决现代强化学习方法低样本效率和不安全探索的问题。我们通过在仿真环境中进行域适应并分析适应过程中潜在空间的结构来评估该方法。然后,在 KUKA LBR 4 + 机器人上应用此策略,并在将曲棍球击向目标的任务中评估其性能。实验结果表明,与基准表现相比,这种方法具有更一致和稳定的域适应性,从而获得了更好的整体性能。
Sep, 2019
我们提出通过在线调整来弥补模仿学习中的失败,我们的方法将预训练策略的动作建议与专家记录的相关经验相结合,通过适应的行为更好地模仿专家策略,实验表明适应的智能体表现比纯模仿学习的对应体更好,特别是在基础策略灾难性失败时,适应的智能体仍然能够实现合理的性能。
Jun, 2024
本文介绍使用干预性策略学习的方法来解决机器人操作任务中必须经过精确定序的地方的问题,提出一种 6 自由度机器人操作任务的数据采集系统,并开发了一个简单而有效的算法来收集新数据以遍历通过这些难点,使用干预策略学习的代理在机器人的线路穿线任务和制造咖啡任务中的表现优于其他多种基线算法。
Dec, 2020
本研究提出了一种基于模仿学习的系统,使机器人可以通过模仿真实世界的动物学习敏捷的运动技能,并演示了该系统的有效性。
Apr, 2020
本研究提出一种基于课程学习和 MoE 的模仿学习方法,用于从人类多样化的演示中教授机器人控制技能,并在复杂机器人控制任务中显著优于当前最先进的方法。
Apr, 2023
本文提出了一种在小规模人类示范预算下改善模仿学习性能的流程,并将其应用于需要高精度和长视程操作的装配任务,通过结合表达能力强的策略架构和数据集扩展与基于仿真的数据增强等技术来扩展数据集支持并在高精度要求的瓶颈区域附近监督模型的局部纠正动作,实现了在仿真环境中进行四个家具装配任务并直接从 RGB 图像中组装多达五个零件,性能超过了模仿学习和数据增强的基线。
Apr, 2024