追逐 - 逃避问题的通用追逐者
该论文提出了 AdaGrasp 方法,通过使用大量的末端执行器、模拟训练以及视觉观察来学习一种单一的抓取策略并解决机器人在处理碎片化视角和杂乱无章的环境中遇到的挑战。
Nov, 2020
本文提出了一种基于人口统计学的进化博弈(PEG)的,来进行无人监督的人员再识别,其利用了协同游戏、克隆和波动超参数、知识蒸馏等多种技术来增加网络多样性,从而打破了单一网络面对无人监督条件学习判别信息的局限性,同时利用了交叉散射(CRS)来评估模型表现,实验证明,这种方法在无人监督学习方面具有巨大的发展潜力,其准确度超越了当前的行业水平。
Jun, 2023
本文提出了 Planning Exploratory Goals(PEG)方法,在目标条件强化学习中以直接优化内在探索奖励为目的,为每个训练周期设置目标,从而最大限度地探索环境,通过学习世界模型和适应采样规划算法来规划目标命令,从而实现更有效的训练。
Mar, 2023
提出了一种新的人机辅助灵巧抓取任务,该任务旨在训练一个用于控制机器人手指来辅助用户抓取物体的策略。通过提出 Grasping Gradient Field(GraspGF)和基于历史的剩余策略,解决了用户意图多样性和物体几何形状的挑战,实验证明了该方法在实际应用中的用户感知和实用性的优越性。
Sep, 2023
该研究提出了一种基于对抗式增强学习框架的动态抓取算法,通过对抗示教,使机器人可以在不同的物体运动轨迹上进行自我生成的动态抓取训练,从而实现对于动态运动物体的抓取任务的高效性和泛化能力。
Mar, 2022
交互抓取从杂乱环境中非常类似于人类灵巧度的问题中,是机器人学习中最久远的问题之一。我们提出了一种新颖的两阶段学习框架 —— 师傅增益策略梯度(TAPG),将强化学习和策略蒸馏相结合。通过训练一位师傅策略以掌握基于物体姿态信息的运动控制,TAPG 能够在基于物体分割的感觉运动策略上实现引导且适应性的学习。我们通过使用面向特定物体分割的 “Segment Anything Model” 从仿真环境零迁移到真实机器人环境。根据人类可理解的提示,我们训练出的策略能够在仿真和现实世界中熟练地从杂乱环境中抓取各种物体。此外,我们展示了对新物体的鲁棒零迁移。我们的实验视频可以在 https://maltemosbach.github.io/grasp_anything 上找到。
Mar, 2024
本研究提出一种新型的基于两层分层强化学习的目标驱动任务解决方法,使用 Goals Relational Graph 优化部分可观察的目标导向任务,例如目标驱动视觉导航,实验结果显示该方法在新环境和新目标上表现出卓越的泛化性能。
Mar, 2021
将物理常识推理融入机器人操作,通过 PhyGrasp 模型结合自然语言和 3D 点云输入,实现对对象的物理属性准确评估和最优抓取位姿决策。模型的语言理解能力使其能够解释人类指令,并生成符合人类偏好的抓取位姿。在长尾场景中,PhyGrasp 取得了最先进的性能,成功率比 GraspNet 提高了约 10%。
Feb, 2024
本文基于强化学习训练了一个具有外部灵活性的简单机械手实现了 “遮挡抓取” 任务,其学到的策略能够成功地转移到物理机器人上,具有较好的推 generalizability
Nov, 2022