感觉的力量:通过遮蔽式多模态学习从视觉和触觉中获得的通用操控
本文提出一种使用自我监督的方法学习机器人多模态的传感输入表示,来提高学习策略的样本效率,以期应对传统方法在在处理未结构化环境下的接触丰富型操作上的局限性。在模拟环境和物理机器人实验中验证了该方法的有效性。
Jul, 2019
本文使用自我监督的方式学习了一种紧凑的多模态表示方法,将触觉和视觉反馈结合起来,以改善高维输入控制策略的样本效率,该方法在模拟和实际机器人实验中均表现出鲁棒性和广泛泛化能力。
Oct, 2018
本文提出了一种感知框架,通过融合视觉和触觉反馈来预测动态场景中物体的运动,该框架利用一种新型的 STS 传感器来捕捉物体的视觉外观和触觉特性,利用多模态 VAE 将两种模态结合起来,可以推断未来物理交互的结果。
Jan, 2021
通过利用对比学习的方法,本文介绍了 MViTac,一种将视觉和触觉感知以自我监督的方式整合的新方法,通过使用这两种传感器输入,MViTac 利用内部和跨模态损失进行表示学习,从而实现了更好的材料属性分类和更精确的抓取预测。实验证明了 MViTac 方法的有效性及其对现有最先进的自监督和有监督技术的优势。
Jan, 2024
机器人和人工智能领域中,触觉处理的整合越来越关键,特别是在学习如对齿轮和插入等复杂任务时。然而,现有的关于插入任务的触觉方法的研究主要依赖机器人远程操作数据和强化学习,并没有充分利用人类在触觉反馈指导下的控制策略所提供的丰富见解。为了利用人类的感知,与学习源自人类的方法相比,方法学上主要利用视觉反馈,常常忽视人类在完成复杂操纵时固有地使用的宝贵触觉反馈。为填补这一差距,我们引入了一种名为 “MimicTouch” 的新框架,该框架模仿人类的触觉引导控制策略。在这个框架中,我们首先从人类示范者那里收集多模态触觉数据集,将人类的触觉引导控制策略融入到任务完成中。其后的步骤涉及使用多模态传感器数据和重新定位的人类动作通过模仿学习指导机器人。为了进一步缩小人类与机器人之间的差距,我们在物理机器人上采用在线剩余强化学习。通过全面的实验证明,在从人类到机器人的过程中,MimicTouch 的潜在策略通过模仿学习的方式转移是安全和可行的。这项正在进行的工作将为更广泛的触觉引导机器人应用铺平道路。
Oct, 2023
本文通过在机器人装备视觉和触觉传感器,收集大规模视觉和触觉图像序列数据,使用条件对抗式模型,实现视觉和触觉的交叉连接,来合成视觉数据和触觉信号,并想象人与物体的互动。
Jun, 2019
提出了一种名为 M2CURL 的多模态对比无监督强化学习方法,该方法可以有效整合不同的观察模态,通过学习高效的表征进而提高强化学习算法的稳健性和样本效率。该方法在触觉模拟环境中得到了验证,相较于标准的强化学习算法,其学习效率显著提高,表现为更快的收敛速度和更高的累积奖励。
Jan, 2024
研究了视触觉感知与模仿学习相结合在接触丰富的操作任务中的作用,利用光学触觉传感器和创新算法收集触觉力量数据,并通过可视 / 触觉模式切换简化传感器的应用,实验结果强调触觉感知在模仿学习中的重要性。
Nov, 2023
本文提出了一种新的框架,利用条件生成对抗网络生成视觉或触觉图像,以实现视觉和触觉知觉的跨模态感知,并在 ViTac 数据集上进行了广泛实验,结果表明该方法能够生成逼真的数据并且有潜力扩大分类任务的数据集,生成不易获取的感官输出,并推进视觉 - 触觉知觉的整合。
Feb, 2019
使用视觉和触觉感知输入实现灵巧的手中操作是一项具有挑战性的任务,本文提出了一种基于点云的触觉表示方法 Robot Synesthesia,该方法通过同时无缝地整合视觉和触觉输入,提供更丰富的空间信息,有助于更好地推理机器人动作,通过在模拟环境中训练并应用于真实机器人,可适用于各种手中物体旋转任务,并通过综合消融实验验证了视觉和触觉的整合如何改善强化学习和实验到真实场景的性能。
Dec, 2023