本文提出了一种新型的尖锐图神经网络用于事件驱动的触觉物体识别,在两个触觉数据集上的实验结果表明,该方法在分类各种不同的家居物品时能够取得约 90%的高准确率。
Aug, 2020
使用视觉和触觉感知输入实现灵巧的手中操作是一项具有挑战性的任务,本文提出了一种基于点云的触觉表示方法 Robot Synesthesia,该方法通过同时无缝地整合视觉和触觉输入,提供更丰富的空间信息,有助于更好地推理机器人动作,通过在模拟环境中训练并应用于真实机器人,可适用于各种手中物体旋转任务,并通过综合消融实验验证了视觉和触觉的整合如何改善强化学习和实验到真实场景的性能。
Dec, 2023
本研究提出一种新的神经元模型 “位置尖峰神经元”,用以提取事件数据特征,同时将其与时间尖峰响应模型相结合,以构建事件驱动触觉学习的混合模型。实验表明,该模型在提高触觉学习效果和节能方面有着显著的优越性。
Jul, 2022
本文提出了一种名为 “位置尖峰神经元” 的新型神经元模型,用于提取基于事件的触觉数据的特征,并探究了其在事件驱动触觉学习中的能力。作者将该模型应用于两个混合模型中,以捕捉事件驱动触觉数据中的复杂时空依赖性,并证明其在节能方面优于人工神经网络(ANNs)。
Oct, 2022
本论文探究将触觉感应应用于物理机器人相互作用的视频预测模型,结果表明增加触觉反馈有助于提高场景预测准确性和增强机器人在物理相互作用过程中的感知和理解能力。
Apr, 2023
本研究提出了一种基于多模态对象识别的分析和数据驱动的方法,利用具有高分辨率触觉传感器的三指驱动夹爪进行压缩和释放探索过程(EPs),采集手指关节上的角度传感器获取触觉图像和动觉信息,然后,利用 LSTM 神经网络进行分类,最后通过贝叶斯和神经推理方法融合,对 36 种物体进行测试,结果表明贝叶斯分类器提高了物体识别能力并优于神经网络分类器。
Jun, 2023
通过利用视觉奖励来优化敏感性策略的触觉适应 (TAVI) 框架,通过在线强化学习,在多指机器人上取得了可观的成功率,提高了性能。
Sep, 2023
本文章提出了一种使用基于视觉的触觉传感器进行交互式感知的方法,其中训练了一个深度神经网络来预测任意形状的零件的概率对应关系,并设计了一个粒子滤波器来优化感知任务并提高机器人操作的效率。
Mar, 2023
本文提出了一种感知框架,通过融合视觉和触觉反馈来预测动态场景中物体的运动,该框架利用一种新型的 STS 传感器来捕捉物体的视觉外观和触觉特性,利用多模态 VAE 将两种模态结合起来,可以推断未来物理交互的结果。
Jan, 2021
本文提出了一种新的框架,利用条件生成对抗网络生成视觉或触觉图像,以实现视觉和触觉知觉的跨模态感知,并在 ViTac 数据集上进行了广泛实验,结果表明该方法能够生成逼真的数据并且有潜力扩大分类任务的数据集,生成不易获取的感官输出,并推进视觉 - 触觉知觉的整合。
Feb, 2019