通过使用触觉传感器而无需依赖视觉信息,我们介绍了一个多指机器人系统,用于搜索和操纵随机位置的目标物体,并在模拟环境中训练和转移政策,证明了使用触觉传感器进行物体搜索和操纵任务的可行性,以实现赋予机器人类似人类触觉能力的目标。
Jan, 2024
本研究提出了一种基于 DIGIT 触觉传感器的视触对象重建框架 VTacO,并将其扩展到手 - 物体重建的 VTacOH,并通过 VT-Sim 模拟环境生成了大规模的训练数据集进行评估,展示了其在刚性和不可变形物体重建上具有优异的表现。
Mar, 2023
GEOTACT 是一种能够从颗粒介质中挖掘出埋藏物体的机器人操控方法,通过纯粹依靠触觉反馈与颗粒介质交互,以及通过学习方法训练来降低噪音干扰,并成功在真实硬件上实现了从颗粒环境中可靠地获取不同物体的目标。
Feb, 2024
本文旨在开发一种设备,将视觉信息转换为听觉反馈,以协助视障者更好地了解他们的环境,该设备的选择基于准确性和成本方面的考虑,包括时间和功耗等因数,经测试,其在场景理解,包括静态或动态的对象,以及屏幕内容如电视、电脑和手机等方面具有显著的效果。
Jul, 2023
该研究提出一种名为 TANDEM 的框架,通过协同训练的探索和判断模块,实现机器人通过触觉信息进行目标识别任务,具有更高的准确性和更强的鲁棒性。
Mar, 2022
通过利用视觉奖励来优化敏感性策略的触觉适应 (TAVI) 框架,通过在线强化学习,在多指机器人上取得了可观的成功率,提高了性能。
Sep, 2023
本论文提出了一个基于深度学习的端到端操作条件模型,通过学习来自 GelSight 传感器的神经张量图像的触觉和视觉数据,从而使机器人学会了如何使用触觉信息来调整其抓取力度,以达到高效的抓取。
May, 2018
本文提出了 FingerSLAM,一种结合手指触觉传感和腕部摄像头视觉感知的封闭环路因子图姿态估计器,用于关于手中未知物体的 6DoF 定位和 3D 重建,通过该方法可以获得更加准确的估计,并示范了在实际情况下的定量和定性评估。
利用强化学习驱动的主动触觉探索方法,通过有限步骤对物体进行重新构建,从而更好地理解物体结构并获取三维形状的表示,为机器人抓取和操作等基础任务提供有效的解决方案。
Oct, 2023
本文中,我们提出了一种深度触觉模型预测的方法,结合高分辨率触觉传感器,通过无监督自主交互生成模型以从原始触觉传感器输入进行学习,并将学习到的模型用于将物体重新定位到用户指定的配置,从而实现非握持操作的触觉控制。
Mar, 2019