非视觉状态下的旋转:通过触感增强手部灵巧性
通过使用触觉传感器而无需依赖视觉信息,我们介绍了一个多指机器人系统,用于搜索和操纵随机位置的目标物体,并在模拟环境中训练和转移政策,证明了使用触觉传感器进行物体搜索和操纵任务的可行性,以实现赋予机器人类似人类触觉能力的目标。
Jan, 2024
利用丰富的触觉反馈信息,通过模拟训练和零样本策略转移的方法,实现了在手物体多轴重力无关的旋转,并且证明了信息丰富的触觉感知对于手持操作的重要性。
May, 2024
我们介绍了 RotateIt,这是一个通过利用多模式感知输入实现多轴指尖物体旋转的系统。系统在模拟环境中训练,可以访问物体的真实形状和物理属性,然后通过模拟的视觉触觉和本体觉感知输入进行操作。通过触视觉变压器将多模态输入融合,实现了部署过程中对物体形状和物理属性进行在线推断,显示出较之前方法的显著性能改进以及视觉和触觉感知的重要性。
Sep, 2023
使用视觉和触觉感知输入实现灵巧的手中操作是一项具有挑战性的任务,本文提出了一种基于点云的触觉表示方法 Robot Synesthesia,该方法通过同时无缝地整合视觉和触觉输入,提供更丰富的空间信息,有助于更好地推理机器人动作,通过在模拟环境中训练并应用于真实机器人,可适用于各种手中物体旋转任务,并通过综合消融实验验证了视觉和触觉的整合如何改善强化学习和实验到真实场景的性能。
Dec, 2023
通过结合视觉和触觉传感来估计物体的位置和形状,本研究展示了多模态感知在手持操纵中的作用,证明触觉能够在手持操纵过程中改进视觉估计并提供更准确的感知,旨在推动机器人灵巧性的发展。
Dec, 2023
本研究提出了一种新的基于触觉的灵巧性方法,即 T-Dex,通过两个阶段的操作,采集游戏数据训练自监督触觉编码器,并结合视觉数据学习非参数策略,结果表明,在五个挑战灵巧任务中,该方法平均优于只采用视觉或扭矩的模型高达 1.7 倍。
Mar, 2023
该论文介绍了一个基于强化学习的通用物体重新定位控制器,使用廉价深度相机内置单个传感器可以动态地实时重新定位复杂物体,具有在真实世界中重现的能力,且硬件成本低廉,可以使未来的技术民主化。
Nov, 2022
本文介绍了使用自适应控制器和动态调整策略训练的机器人手指智能旋转物体的方法,该方法只需要使用手指就可以对各种大小、形状和重量的物体进行旋转,具有很好的稳定性和自适应性,为机器人手部操作的研究提供了一个新思路。
Oct, 2022
通过学习人类示范,我们利用双臂系统和视触数据探索实现类似人类敏捷性、感知体验和运动模式的目标。我们开发了一种低成本的手臂远程操作系统并重新利用配备触觉传感器的义肢手,通过采集到的视触数据学习完成长周期、高精度任务。我们的结果在双臂多指操作和视触数据方面迈出了有希望的一步。
Apr, 2024