一个适用于接触丰富机器人操作的安全接触强化学习框架
本文提出使用深度强化学习作为一种可扩展的解决方案,来掌握带有多指手的接触丰富行为,并展示使用模型自由的深度强化学习算法在现实世界中可以学习各种复杂的行为,同时可以通过少量的人类演示来加速学习。
Oct, 2018
本文研究了深度强化学习中不同行为空间的影响,提出了在约束和接触丰富任务中具有优势的终端执行器空间下的可变阻抗控制(VICES)。通过在三个典型的操作任务中评估多个动作空间,表明VICES提高了样本效率,在所有三个实验设置中保持低能量消耗,并确保安全。
Jun, 2019
本研究结合课程学习和域随机化方法,探究如何快速应用于机器人接触式操作任务中,实现在工业装配等领域中的快速学习和短时间内达到高成功率。研究结果表明,本文所提出的方法在工业插入任务中取得了最多86%的成功率,并且使用样本训练的时间不到以往的五分之一。
Apr, 2022
本研究针对强化学习(RL)算法在真实环境中训练的挑战,探索了在可控且现实的设置中进行灵巧操作的直接训练。通过基准测试三种RL算法在复杂手持操作任务中的效果,结果展示了RL训练在实际应用中的实用性及相关挑战,为机器人领域的研究者和从业者提供了宝贵的经验和启示。
Aug, 2024
本研究解决了移动操控领域缺乏有效自主学习框架的问题。通过引入任务相关的自主性、行为先验的知识以及通用奖励机制,我们提出了一种新方法,使得机器人能够在没有大量外部设备或人工监督的情况下自我提升。研究表明,该方法使得Spot机器人在四项复杂的移动操控任务中平均成功率达到80%,相较于现有方法提升了3-4个百分点。
Sep, 2024
本研究解决了强化学习中每个任务需精心设计马尔可夫决策过程的难题,提出了一种系统的方法进行多接触运动操控任务的行为合成与控制。通过定义任务无关的马尔可夫决策过程,我们的策略能够在动态不确定性和外部干扰下,学习到更高成功率的操控策略,并在真实机器人上成功转化,展示了其实用性。
Oct, 2024
本研究针对机器人在接触密集和动态环境中缺乏人类灵活性的问题,提出了一种名为DIPCOM的扩散策略框架,用于顺应控制任务。通过多模态分布建模和生成扩散模型,该方法有效提高了机器人在任务中的力控制能力,并在真实任务中验证了其有效性。
Oct, 2024
本研究针对传统强化学习在真实环境中实现复杂机器人操控技能的困难,提出了一种基于人机协作的视觉强化学习系统,展示了其在多个灵巧操控任务上的优异表现。通过整合示范、人工修正与高效的强化学习算法,该方法在1到2.5小时的训练内实现了近乎完美的成功率和快速的循环时间,显著超越了过去的模仿学习和强化学习方法。
Oct, 2024