通过把握进行自监督实例分割
该论文提出了自监督学习的迁移学习方法,通过机器人与环境互动自主地推动未知物体并使用光学流来创建自我标记的训练数据以实现实例分割。最终,他们提出的 SelfDeepMask 模型在挑战性场景下对 DeepMask 模型的平均精度提高了 9.5%。
May, 2020
该研究提出了一种机器人学习方法,利用在未见过新物体时的交互作用,与避免手动标记数据集的费时过程,收集每个物体的训练标签进行微调来提高分段模型的性能。该系统实现了在模拟杂乱场景中 70% 的分离成功率,而对于玩具积木、模拟 YCB 对象和真实世界的新物体,交互式分割的平均精度分别达到了 87.8%、73.9% 和 69.3%,超过了几个基线。
Jul, 2022
本文提出了一种基于深度学习的机器人物体分割方法,通过解决两个子问题:机械臂与物体与背景的分割和物体与机械臂的分割,实现了无需人工标注数据即可训练网络的自我识别能力,实验证明该方法优于现有最优的自适应手持物体分割算法,并通过测试数据表明使用包含手持物体的自动标注图像的训练集可以提高物体在环境中的分割性能。
Apr, 2019
本论文提出了一个新的两步框架,使机器人在非结构化环境中学会抓取并能够从远程的非专家演示中学习,通过分割的方式进行操作,在进行少量示范的情况下估计给定任务的未见场景所需的抓取区域,并有效地允许非专家进行新的抓取策略的远程教学。
Mar, 2023
本研究提出了一种利用自我监督方式以及与环境互动的方法,建立一个学习将视觉观察分割成不同对象的主动代理。通过对 50,000 次以上与物体交互的学习,该代理的分割模型能够推广到新的物体和背景,并通过提供视频、代码以及与机器人的互动数据集来测试所学分割模型的效用。
Jun, 2018
我们提出了一个新颖的方法,结合了基础模型的出色广化能力和高性能的少样本分类器,作为一个评分函数来选择与支持集更接近的分割,从而克服了现有性能限制,并在 Graspnet-1B 和 Ocid-grasp 数据集以及真实世界的少样本抓取合成中取得了最先进的效果。
Apr, 2024
本文探讨了如何通过自主机器人与环境进行交互,获得适用于机器人操纵任务的有效物体中心表示,无需人为标注。基于对象持久性的表示学习方法能够随着机器人收集更多经验,不断改进表示,从而可以在无需人为干预的情况下扩展规模。我们的实验表明,这种自我监督方法显着优于直接从图像进行强化学习和先前的表示学习方法。
Nov, 2018
该研究提出了一种将半监督学习与通过互动学习相结合的新方法,通过观察场景变化学习和利用视觉一致性,从而实现对物体的操作。在两个基准测试中验证了该方法,取得了卓越的性能。
Jul, 2024
本文提出一种基于多任务领域适应的框架来解决机器人抓取的训练数据收集和标注的问题,借助仿真机器人实验来对杂乱场景下的抓取进行实例化,并通过领域对抗性损失将训练好的模型转移到真实机器人系统中,经过实际机器人实验的评估表明本文所提出的模型准确性比其他模型结构及基准模型都要高。
Oct, 2017
本文采用大规模数据集和多阶段学习方法,使用卷积神经网络对机器人进行抓取任务,与几个基准进行比较,表现出了最先进的泛化能力。
Sep, 2015