视觉触觉预训练用于电缆插拔
通过使用接触式麦克风作为替代触觉传感器,本文介绍了第一种利用大规模多模态先前训练进行机器人操作的方法,通过从大规模音频 - 视觉先前训练中获取表示来提高机器人操作的性能。
May, 2024
本论文探究将触觉感应应用于物理机器人相互作用的视频预测模型,结果表明增加触觉反馈有助于提高场景预测准确性和增强机器人在物理相互作用过程中的感知和理解能力。
Apr, 2023
通过使用触觉传感器而无需依赖视觉信息,我们介绍了一个多指机器人系统,用于搜索和操纵随机位置的目标物体,并在模拟环境中训练和转移政策,证明了使用触觉传感器进行物体搜索和操纵任务的可行性,以实现赋予机器人类似人类触觉能力的目标。
Jan, 2024
本研究提出了一种新的基于触觉的灵巧性方法,即 T-Dex,通过两个阶段的操作,采集游戏数据训练自监督触觉编码器,并结合视觉数据学习非参数策略,结果表明,在五个挑战灵巧任务中,该方法平均优于只采用视觉或扭矩的模型高达 1.7 倍。
Mar, 2023
使用视觉和触觉感知输入实现灵巧的手中操作是一项具有挑战性的任务,本文提出了一种基于点云的触觉表示方法 Robot Synesthesia,该方法通过同时无缝地整合视觉和触觉输入,提供更丰富的空间信息,有助于更好地推理机器人动作,通过在模拟环境中训练并应用于真实机器人,可适用于各种手中物体旋转任务,并通过综合消融实验验证了视觉和触觉的整合如何改善强化学习和实验到真实场景的性能。
Dec, 2023
通过利用对比学习的方法,本文介绍了 MViTac,一种将视觉和触觉感知以自我监督的方式整合的新方法,通过使用这两种传感器输入,MViTac 利用内部和跨模态损失进行表示学习,从而实现了更好的材料属性分类和更精确的抓取预测。实验证明了 MViTac 方法的有效性及其对现有最先进的自监督和有监督技术的优势。
Jan, 2024
本文通过在机器人装备视觉和触觉传感器,收集大规模视觉和触觉图像序列数据,使用条件对抗式模型,实现视觉和触觉的交叉连接,来合成视觉数据和触觉信号,并想象人与物体的互动。
Jun, 2019
本文章提出了一种使用基于视觉的触觉传感器进行交互式感知的方法,其中训练了一个深度神经网络来预测任意形状的零件的概率对应关系,并设计了一个粒子滤波器来优化感知任务并提高机器人操作的效率。
Mar, 2023
机器人和人工智能领域中,触觉处理的整合越来越关键,特别是在学习如对齿轮和插入等复杂任务时。然而,现有的关于插入任务的触觉方法的研究主要依赖机器人远程操作数据和强化学习,并没有充分利用人类在触觉反馈指导下的控制策略所提供的丰富见解。为了利用人类的感知,与学习源自人类的方法相比,方法学上主要利用视觉反馈,常常忽视人类在完成复杂操纵时固有地使用的宝贵触觉反馈。为填补这一差距,我们引入了一种名为 “MimicTouch” 的新框架,该框架模仿人类的触觉引导控制策略。在这个框架中,我们首先从人类示范者那里收集多模态触觉数据集,将人类的触觉引导控制策略融入到任务完成中。其后的步骤涉及使用多模态传感器数据和重新定位的人类动作通过模仿学习指导机器人。为了进一步缩小人类与机器人之间的差距,我们在物理机器人上采用在线剩余强化学习。通过全面的实验证明,在从人类到机器人的过程中,MimicTouch 的潜在策略通过模仿学习的方式转移是安全和可行的。这项正在进行的工作将为更广泛的触觉引导机器人应用铺平道路。
Oct, 2023