机器人学习中力-运动法的缺陷
本文研究了深度强化学习中不同行为空间的影响,提出了在约束和接触丰富任务中具有优势的终端执行器空间下的可变阻抗控制(VICES)。通过在三个典型的操作任务中评估多个动作空间,表明VICES提高了样本效率,在所有三个实验设置中保持低能量消耗,并确保安全。
Jun, 2019
我们研究了机器人操作学习和从仿真到实际的转移中的行动空间选择。我们定义了评估性能的度量标准,并研究了不同行动空间的新兴特性。我们使用13种不同的控制空间,在模拟的抓取和推动任务中训练了超过250个强化学习代理。行动空间的选择涵盖了文献中的热门选择以及常见设计特征的新组合。我们对仿真中的训练性能以及向实际环境的转移进行了评估。我们确认了机器人行动空间的优点和缺点,并对未来设计提出了建议。我们的发现对于机器人操作任务的强化学习算法设计具有重要意义,并强调了在训练和转移强化学习代理时对行动空间的慎重考虑的必要性。
Dec, 2023
通过分析机器人操作的标准,介绍了ER(末端执行器冗余)这一新的操作空间形式,旨在综合利用关节空间和任务空间的优势,在具备超定驱动机械臂的情况下提供精细全面的控制,并在高效机器人学习方面取得了卓越表现。通过模拟和真实机器人环境验证了ERJ在多种设置下特别是在需要对机器人配置进行精确控制的情况下的优越性能。
Jun, 2024
本文解决了体现学习在物体中心机器人操作中的发展不足,提出了通过机器人与环境的物理交互进行学习的新方法。研究表明,体现学习能有效提升机器人在物体抓取和操作中的性能,并探讨了未来研究方向和当前面临的挑战。
Aug, 2024
本研究解决了机器学习在机器人操作中的普适性和适应性问题,提出了一种利用现实视频生成传感器-运动机器人轨迹的新方法。通过在共享3D空间中提升人手和被操作物体,研究显示对基于这一生成模型的政策进行微调,可以实现高效的样本适应,同时提高适用性和鲁棒性。
Sep, 2024
本研究针对机器人在接触密集和动态环境中缺乏人类灵活性的问题,提出了一种名为DIPCOM的扩散策略框架,用于顺应控制任务。通过多模态分布建模和生成扩散模型,该方法有效提高了机器人在任务中的力控制能力,并在真实任务中验证了其有效性。
Oct, 2024
本研究解决了机器人学习中缺乏大规模领域特定数据集的问题。提出了一种新的操作中心表示(MCR)框架,通过捕捉操作任务的视觉特征和动态信息来提高表现,实验证明MCR在多个模拟领域的任务中表现超越基线方法14.8%,并在现实世界任务中提升性能76.9%。
Oct, 2024