从模拟中学习类别级别任务相关难点抓取技能
本文提出一种基于多任务领域适应的框架来解决机器人抓取的训练数据收集和标注的问题,借助仿真机器人实验来对杂乱场景下的抓取进行实例化,并通过领域对抗性损失将训练好的模型转移到真实机器人系统中,经过实际机器人实验的评估表明本文所提出的模型准确性比其他模型结构及基准模型都要高。
Oct, 2017
提出了一种基于数据生成和模拟到真实世界迁移学习的机器人抓握框架,该框架通过减少模拟和实际之间的差距,解决了数据稀疏、传感器数据和接触模型不准确等问题,在单一物品、复杂形状物品和多物品的机器人抓握场景下分别获得了 90.91%、85.71% 的高成功率。
Jan, 2023
这项研究关注于在人类中心环境中操作的机器人,通过整合视觉定位和抓握能力,根据用户指令高效操纵物体。首先创建了一个基于 OCID 数据集中杂乱室内场景的难题基准,其中生成指代表达式并与 4 自由度的抓握姿势相连接,然后提出了一种新颖的端到端模型(CROG),利用 CLIP 的视觉定位能力直接从图像 - 文本对中学习抓握综合。实验结果表明,CROG 在挑战性基准测试中显著改善了定位和抓握能力,经过模拟和硬件的广泛机器人实验证明了该方法在具有杂乱物体的挑战性交互抓握场景中的有效性。
Nov, 2023
本文提出了一个任务导向抓取网络 (TOG-Net),通过大规模模拟自我监督与程序生成的工具对象,同时优化工具的任务导向抓取和操纵策略。模型在打扫和敲打两个任务中表现出较高的成功率,并取得了显著的效果。
Jun, 2018
本研究提出了一种基于部分点云观察的,用于在杂乱场景中规划指定物体 6 自由度抓取的方法,其性能比基线方法高出 17.6%,能够成功清理包含 23 个未知物体和 51 次抓取操作的 9 个杂乱桌面场景,并利用我们学习到的碰撞检查模块来推理有效的抓取顺序,以检索不易到达的物体。
Dec, 2019
通过编码形状和有效抓取的连续潜空间,CenterGrasp 框架结合了物体识别和整体抓取,实现了场景的强场景重建和六自由度抓取 - 姿态估计性能的显著改进。
Dec, 2023
本论文介绍了一个名为 TaskGrasp 的数据集和一个名为 GCNGrasp 的机器人抓取框架,用语义知识来进行任务驱动的物体抓取。实验结果表明,该模型在处理新对象和新任务方面具有更高的泛化能力。
Nov, 2020
本文探讨了如何通过自主机器人与环境进行交互,获得适用于机器人操纵任务的有效物体中心表示,无需人为标注。基于对象持久性的表示学习方法能够随着机器人收集更多经验,不断改进表示,从而可以在无需人为干预的情况下扩展规模。我们的实验表明,这种自我监督方法显着优于直接从图像进行强化学习和先前的表示学习方法。
Nov, 2018
利用隐式局部表面表示模型,将掌握经验或示范迁移到与机器人之前遇到的对象形状类似的新对象,评估结果表明,该方法可以成功地将掌握迁移到未见过的对象类别,并提供更好的空间精度和掌握准确性。
Aug, 2023
本文提出了一种高样本效率的目标导向层次强化学习模型,使用推和抓策略来实现在混乱环境下抓取指定目标物体,经过一系列实验验证表明,该模型表现出了高的任务完成率和目标抓取成功率,并能够适应目标不明确的条件,并且可以直接转移到实际应用中。
Mar, 2021