本文研究了在视觉感知缺失,对象形状未知且对象可以自由运动的场景下的物体检索问题,提出了一种使用触觉反馈进行定位、识别和抓取新对象的系统。
Mar, 2023
利用强化学习驱动的主动触觉探索方法,通过有限步骤对物体进行重新构建,从而更好地理解物体结构并获取三维形状的表示,为机器人抓取和操作等基础任务提供有效的解决方案。
Oct, 2023
机器人在开放环境中操作时,会遇到未知的物理特性的新对象,需要通过交互来感知这些特性,并利用生成的世界模型来估计物体的物理参数,并开发一种信息收集模型预测控制器,以自主学习触觉探索策略。我们的研究在虚拟环境中评估了这种方法,发现我们的方法能够以直观的方式高效地收集关于所需特性的信息。最后,我们在真实机器人系统上验证了我们的方法,成功地从零开始学习和执行信息收集策略以估计物体的高度。
Nov, 2023
本文提出使用 3D 卷积神经网络结构,融合深度学习和触觉信息来生成可用于机器人操作的丰富准确的三维模型,并通过实验证明,在几何推理方面具有优越性。
Mar, 2018
本论文提出了一个适用于复杂背景和光线条件下透明对象抓取的视触融合框架,包括抓取位置检测、触觉校准和基于视触融合的分类。该框架综合了视觉和触觉的优势,极大地提高了透明对象的抓取效率。
Nov, 2022
本研究提出了一种基于 DIGIT 触觉传感器的视触对象重建框架 VTacO,并将其扩展到手 - 物体重建的 VTacOH,并通过 VT-Sim 模拟环境生成了大规模的训练数据集进行评估,展示了其在刚性和不可变形物体重建上具有优异的表现。
本论文提出了一个基于深度学习的端到端操作条件模型,通过学习来自 GelSight 传感器的神经张量图像的触觉和视觉数据,从而使机器人学会了如何使用触觉信息来调整其抓取力度,以达到高效的抓取。
May, 2018
本文中,我们提出了一种深度触觉模型预测的方法,结合高分辨率触觉传感器,通过无监督自主交互生成模型以从原始触觉传感器输入进行学习,并将学习到的模型用于将物体重新定位到用户指定的配置,从而实现非握持操作的触觉控制。
Mar, 2019
本文提出了一种基于模拟的感知模型,可以从单个触觉观察中定位物体的姿态,同时可以推断姿态分布和与其他感知系统或多个接触的约束。
Dec, 2020
本研究通过深度强化学习技术在机器人领域实现了触觉信息处理、迁移学习、以及力控制等方面的初步成果。