DexTouch:学习使用触觉灵巧性寻找和操纵物体
该研究论文介绍了一种使用密集二进制力传感器获取触觉信息的设计,使得多指机器人手能够进行离线物体旋转,无需依赖于视觉信息,通过强化学习的方法进行培训,能够扩展到实际场景中,并对触觉信息对于手部操纵的帮助进行了广泛的实验。
Mar, 2023
本研究提出了一种新的基于触觉的灵巧性方法,即 T-Dex,通过两个阶段的操作,采集游戏数据训练自监督触觉编码器,并结合视觉数据学习非参数策略,结果表明,在五个挑战灵巧任务中,该方法平均优于只采用视觉或扭矩的模型高达 1.7 倍。
Mar, 2023
使用视觉和触觉感知输入实现灵巧的手中操作是一项具有挑战性的任务,本文提出了一种基于点云的触觉表示方法 Robot Synesthesia,该方法通过同时无缝地整合视觉和触觉输入,提供更丰富的空间信息,有助于更好地推理机器人动作,通过在模拟环境中训练并应用于真实机器人,可适用于各种手中物体旋转任务,并通过综合消融实验验证了视觉和触觉的整合如何改善强化学习和实验到真实场景的性能。
Dec, 2023
本文研究了在视觉感知缺失,对象形状未知且对象可以自由运动的场景下的物体检索问题,提出了一种使用触觉反馈进行定位、识别和抓取新对象的系统。
Mar, 2023
本文中,我们提出了一种深度触觉模型预测的方法,结合高分辨率触觉传感器,通过无监督自主交互生成模型以从原始触觉传感器输入进行学习,并将学习到的模型用于将物体重新定位到用户指定的配置,从而实现非握持操作的触觉控制。
Mar, 2019
该研究提出一种名为 TANDEM 的框架,通过协同训练的探索和判断模块,实现机器人通过触觉信息进行目标识别任务,具有更高的准确性和更强的鲁棒性。
Mar, 2022
机器人和人工智能领域中,触觉处理的整合越来越关键,特别是在学习如对齿轮和插入等复杂任务时。然而,现有的关于插入任务的触觉方法的研究主要依赖机器人远程操作数据和强化学习,并没有充分利用人类在触觉反馈指导下的控制策略所提供的丰富见解。为了利用人类的感知,与学习源自人类的方法相比,方法学上主要利用视觉反馈,常常忽视人类在完成复杂操纵时固有地使用的宝贵触觉反馈。为填补这一差距,我们引入了一种名为 “MimicTouch” 的新框架,该框架模仿人类的触觉引导控制策略。在这个框架中,我们首先从人类示范者那里收集多模态触觉数据集,将人类的触觉引导控制策略融入到任务完成中。其后的步骤涉及使用多模态传感器数据和重新定位的人类动作通过模仿学习指导机器人。为了进一步缩小人类与机器人之间的差距,我们在物理机器人上采用在线剩余强化学习。通过全面的实验证明,在从人类到机器人的过程中,MimicTouch 的潜在策略通过模仿学习的方式转移是安全和可行的。这项正在进行的工作将为更广泛的触觉引导机器人应用铺平道路。
Oct, 2023
本论文提出了一个基于深度学习的端到端操作条件模型,通过学习来自 GelSight 传感器的神经张量图像的触觉和视觉数据,从而使机器人学会了如何使用触觉信息来调整其抓取力度,以达到高效的抓取。
May, 2018
我们的目标是使机器人具备与人类类似的潜在触觉信号感知能力,通过使用一种名为 Imagine2touch 的方法,可以根据表示待触摸区域的视觉补丁来预测预期的触摸信号。我们使用了一种廉价而紧凑的触摸传感器 ReSkin 来收集所需的数据集,通过对五种基本几何形状和一种工具进行随机触摸。我们在其中两种形状上对 Imagine2touch 进行训练,并在 odd 工具上进行验证。我们通过将 Imagine2touch 应用于物体识别的下游任务来展示其有效性。在这个任务中,我们通过两个实验评估了 Imagine2touch 的性能,总共包括 5 个训练分布对象。在每个对象受到十次触摸后,Imagine2touch 的物体识别准确率达到了 58%,超过了一个本体感知基线。
May, 2024