Kalib: 无标记手眼标定与关键点跟踪
通过卷积神经网络对单目图像进行学习,实现机器人抓握的手眼协调,并能实现实时控制、成功抓握陌生物体,以及通过连续伺服调节校正抓握错误。
Mar, 2016
该研究提出了一种低成本无需昂贵传感器,即可通过学习眼手协调和点对齐能力的方法解决机器人精密操作任务的算法 Binocular Alignment Learning,该算法在仿真和实际机器人测试中都达到了良好的性能。
May, 2022
提出了一种端到端的姿态估计框架,结合深度学习和几何视觉解决机器人姿态的问题,并利用自我监督的方法以及深度学习的技术训练神经网络,最终在真实环境的两个公共数据集上验证了该方法的有效性,并将其应用于视觉伺服系统中。
Feb, 2023
EasyHeC是一种新的手眼标定方法,采用无标记,白盒的方法,通过可微分渲染的摄像头姿态优化和基于一致性的关节空间探索,能够准确优化标定过程,消除手动设计机器人关节姿势的繁琐过程。通过在合成和真实的数据集上进行评估,EasyHeC表现出优异的性能,提供精确的摄像机姿态,增强下游的操作任务。
May, 2023
我们提出了一种基于神经网络的手眼校准方法,在机器人辅助微创手术中,从一系列图像和运动学数据估计变换,这显著简化了校准过程。该方法基于长短期记忆架构来从数据中提取时序信息,并利用线性组合的目标函数,包括运动远心点约束、重投影误差及其导数,以在手眼变换中引入微小变化。该方法通过 da Vinci Si 数据的验证 ,结果显示,估计的手眼矩阵能够在测试数据集中将末端执行器从机器人坐标重投影到相机坐标,精度均在10到20个像素以内。
Jun, 2023
本文提出了一种新的灵活的手眼标定方法,结合运动估计技术和已知机器人运动,通过线性形式求解手眼参数和结构运动方法中的未知比例因子。该方法适用于无人驾驶车辆、远程工作机器人等领域,并通过与现有方法的对比实验验证了其优越性。
Nov, 2023
手眼标定是将传感器中心的测量映射到机器人工作空间以及使机器人能够精确移动传感器的关键问题之一,本文提出了两种手眼标定问题的解决方案,并针对线性和非线性方法进行了稳定性分析,结果表明非线性优化方法对噪声和测量误差更具鲁棒性。
Nov, 2023
通过低成本传感器提供视觉估计的冗余,以实现自主机器人的准确测量机器人的潜在状态和感知环境,包括其中的其他代理,从而使规划和执行传感器故障或外部干扰时的恢复协议成为可能。我们提出了GISR方法,它是一种用于深度配置和机器人到相机姿态估计的方法,其优先考虑实时执行。GISR由两个模块组成:(i) 几何初始化模块,高效计算近似机器人姿势和配置,以及 (ii) 基于轮廓的迭代细化模块,仅通过少数迭代步骤对初始解进行改进。我们在公开可用的数据集上评估了我们的方法,并展示了GISR与现有先进方法相比具有竞争力的表现,并且比同类现有方法具有显著更快的速度。我们的代码可在此URL获得。
May, 2024
在工业场景中,人机协作依赖于多摄像头系统来监控人工操作员,尽管机器人工作区域通常会出现遮挡。本文介绍了一种创新且强大的多摄像头手眼标定方法,旨在优化每个摄像头与机器人基坐标系以及其他摄像头之间的姿态,通过全面的实验证明了该方法优于现有技术的表现,即使只使用不到10张图像,并且公开发布了我们的多摄像头手眼标定算法的开源版本。
Jun, 2024
本研究解决了现有无标记姿态估计方法在机器人部分可见情况下失败的问题。我们提出了一种新颖的框架,结合视觉-语言模型和关键点姿态估计网络,能够在多变的操作条件下进行更稳健的机器人姿态估计。该方法在公共机器人数据集和自收集的部分视图数据集上进行评估,显示出其在真实操作场景中的有效性和广泛适用性。
Sep, 2024