本综述总结了人形机器人感知领域的最新发展和趋势,识别了内部状态估计、外部环境估计和人机交互三个主要应用领域,并讨论了各个领域中不同传感器模态的应用和最近的重要研究成果。
Sep, 2023
该研究介绍了一个感知模型,通过协调来自不同模态的数据,构建一个完整的状态表示和吸收必要的信息,从而为开发复杂的控制策略铺平了道路。该模型基于感知输入和机器人动作之间的因果关系,采用生成模型来高效压缩融合信息并预测下一个观察值。我们首次提出了关于如何从视觉和本体感知预测触觉以及跨模态生成的研究,以及这对于软体机器人在非结构化环境中的交互的重要性。
Apr, 2024
通过结合视觉和触觉传感来估计物体的位置和形状,本研究展示了多模态感知在手持操纵中的作用,证明触觉能够在手持操纵过程中改进视觉估计并提供更准确的感知,旨在推动机器人灵巧性的发展。
Dec, 2023
本文提出了一种方法,通过视觉和物理交互数据分类表面,以使机器人更好地了解物体的触觉特性;通过统一学习物理交互和视觉观察特征的方法,使用深度神经网络模型实现更准确的触觉分类。
Nov, 2015
通过融合视觉和触觉观测以及来自大规模形状数据库的先验知识,我们提出了一种高效的模式,从单视角彩色图像和少量触索中构建常见物体的三维形状,以帮助机器人更好地执行实际操作。
Aug, 2018
本文章提出了一种使用基于视觉的触觉传感器进行交互式感知的方法,其中训练了一个深度神经网络来预测任意形状的零件的概率对应关系,并设计了一个粒子滤波器来优化感知任务并提高机器人操作的效率。
Mar, 2023
本文提出一种使用自我监督的方法学习机器人多模态的传感输入表示,来提高学习策略的样本效率,以期应对传统方法在在处理未结构化环境下的接触丰富型操作上的局限性。在模拟环境和物理机器人实验中验证了该方法的有效性。
Jul, 2019
本论文探究将触觉感应应用于物理机器人相互作用的视频预测模型,结果表明增加触觉反馈有助于提高场景预测准确性和增强机器人在物理相互作用过程中的感知和理解能力。
Apr, 2023
本文使用自我监督的方式学习了一种紧凑的多模态表示方法,将触觉和视觉反馈结合起来,以改善高维输入控制策略的样本效率,该方法在模拟和实际机器人实验中均表现出鲁棒性和广泛泛化能力。
Oct, 2018
通过视觉传感器和触觉 - 音频传感器的交叉模态迁移学习框架,提高物体识别准确性和机器人运动稳定性。
Mar, 2024