结合视觉和触觉感知进行视频预测
本文提出了一种方法,通过视觉和物理交互数据分类表面,以使机器人更好地了解物体的触觉特性;通过统一学习物理交互和视觉观察特征的方法,使用深度神经网络模型实现更准确的触觉分类。
Nov, 2015
本研究提出了两种新型的数据驱动的行动条件触觉预测模型,用于预测真实世界中机器人交互任务期间的触觉信号,并使用我们的新颖触觉数据集对这些模型进行了比较,结果显示我们的模型在定性、定量和滑动预测得分方面都具有优越性。
May, 2022
本文章提出了一种使用基于视觉的触觉传感器进行交互式感知的方法,其中训练了一个深度神经网络来预测任意形状的零件的概率对应关系,并设计了一个粒子滤波器来优化感知任务并提高机器人操作的效率。
Mar, 2023
本文通过在机器人装备视觉和触觉传感器,收集大规模视觉和触觉图像序列数据,使用条件对抗式模型,实现视觉和触觉的交叉连接,来合成视觉数据和触觉信号,并想象人与物体的互动。
Jun, 2019
本文提出了一种感知框架,通过融合视觉和触觉反馈来预测动态场景中物体的运动,该框架利用一种新型的 STS 传感器来捕捉物体的视觉外观和触觉特性,利用多模态 VAE 将两种模态结合起来,可以推断未来物理交互的结果。
Jan, 2021
使用视觉和触觉感知输入实现灵巧的手中操作是一项具有挑战性的任务,本文提出了一种基于点云的触觉表示方法 Robot Synesthesia,该方法通过同时无缝地整合视觉和触觉输入,提供更丰富的空间信息,有助于更好地推理机器人动作,通过在模拟环境中训练并应用于真实机器人,可适用于各种手中物体旋转任务,并通过综合消融实验验证了视觉和触觉的整合如何改善强化学习和实验到真实场景的性能。
Dec, 2023
本文提出了一种新的框架,利用条件生成对抗网络生成视觉或触觉图像,以实现视觉和触觉知觉的跨模态感知,并在 ViTac 数据集上进行了广泛实验,结果表明该方法能够生成逼真的数据并且有潜力扩大分类任务的数据集,生成不易获取的感官输出,并推进视觉 - 触觉知觉的整合。
Feb, 2019
本文中,我们提出了一种深度触觉模型预测的方法,结合高分辨率触觉传感器,通过无监督自主交互生成模型以从原始触觉传感器输入进行学习,并将学习到的模型用于将物体重新定位到用户指定的配置,从而实现非握持操作的触觉控制。
Mar, 2019
机器人和人工智能领域中,触觉处理的整合越来越关键,特别是在学习如对齿轮和插入等复杂任务时。然而,现有的关于插入任务的触觉方法的研究主要依赖机器人远程操作数据和强化学习,并没有充分利用人类在触觉反馈指导下的控制策略所提供的丰富见解。为了利用人类的感知,与学习源自人类的方法相比,方法学上主要利用视觉反馈,常常忽视人类在完成复杂操纵时固有地使用的宝贵触觉反馈。为填补这一差距,我们引入了一种名为 “MimicTouch” 的新框架,该框架模仿人类的触觉引导控制策略。在这个框架中,我们首先从人类示范者那里收集多模态触觉数据集,将人类的触觉引导控制策略融入到任务完成中。其后的步骤涉及使用多模态传感器数据和重新定位的人类动作通过模仿学习指导机器人。为了进一步缩小人类与机器人之间的差距,我们在物理机器人上采用在线剩余强化学习。通过全面的实验证明,在从人类到机器人的过程中,MimicTouch 的潜在策略通过模仿学习的方式转移是安全和可行的。这项正在进行的工作将为更广泛的触觉引导机器人应用铺平道路。
Oct, 2023