本文提出了一种基于深度学习和贝叶斯滤波的方法,从单目视频流中连续估计每个像素的深度和不确定度概率分布,通过积累时间降低深度不确定度,提高准确性和鲁棒性,该方法可将普通 RGB 相机转换成 RGB-D 相机,并实现更为精确、稳定、泛化性更好的 3D 场景重建。
Jan, 2019
为了解决 RGBD 相机的选用问题,该研究提出了一种用于定量测量深度质量的方法,并通过比较不同相机的性能和案例研究帮助其他系统集成商选择适合定制环境的相机。
Mar, 2019
本文提出了一种新颖的 RGB-D 传感器深度超分辨率方法,该方法通过高分辨率光度线索澄清深度超分辨率,并对未校正的光度立体进行低分辨率深度线索的澄清。使用变分方法处理 RGB-D 序列,并通过新的 PDE 光度立体正则化器隐式地保持了表面的规则性。实验表明,该方法能够在无需任何特殊先验知识或材料校准的情况下,在现实世界的环境中拍摄高质量的深度图像。
Aug, 2017
所提出的算法通过使用常用的单目深度估计网络和激光雷达点云的几何距离之间的互信息作为外在校准的优化度量来不断自动更新车辆寿命周期内相机 - 激光雷达校准值,而无需校准目标、地面真实训练数据和昂贵的离线优化。
Jun, 2023
自动驾驶车辆和机器人需要在各种不同的场景中高效而安全地完成任务。本研究介绍了一种基于自我监督单目深度和自我运动学习原理的外参标定新方法,其利用单目深度估计器和姿态估计器结合速度监督对外参进行估计,并联合学习附加在移动车辆上的一组重叠相机的外参标定。实验结果表明,与传统的基于视觉的姿态估计流水线相比,我们的方法能够在各种场景中稳健且高效地实现自我标定,并展示了通过联合优化改进深度估计的外参自校准的优势。
Aug, 2023
该研究介绍了一种新的相机运动估计方法,通过场景流集成 RGB-D 图像和惯性数据,旨在在刚性三维环境中准确估计相机运动和惯性测量单元(IMU)状态。通过对合成数据和真实数据进行评估,结果显示这两个传感器的融合相比仅使用视觉数据具有更高的相机运动估计精度。
Apr, 2024
本文提出了一种实时的无标定板双目相机标定方法,该方法通过基于流形上的新型非线性优化将几何误差最小化,不需要时间特征对应性,对于动态场景的不变性和灯光变化具有鲁棒性和较快的运行速度,并通过在线实验展示了与离线基于标记的标定方法相当的精度。
利用 RGBD 图像估算 3D 人体姿态,通过关键点检测器和深度信息实现 3D 提升,在真实环境下通过学习演示框架指示服务机器人模仿人类教师的操作,超越了单眼调色板和深度姿态估计方法的性能。
Mar, 2018
通过使用深度传感器的增强现实设备,我们提出了一种实时的 RGB-D 物体检测模型,其中包括深度引导的超卷积和基于上采样的可训练融合层,提高了从原始深度图中提取深度和彩色图像特征的效率和性能,并在 NYU Depth v2 数据集上表现优于其他基于 RGB-D 的物体检测模型,在 SUN RGB-D 数据集上表现相当出色,并且在新的室外 RGB-D 物体检测数据集上也表现出色。同时,我们的模型在来自 CAD 模型和图像生成的多样化合成数据的性能评估中显示出了应用于增强现实的潜力。
Sep, 2023
本文提出了一种新的方法,使用注意力机制有效地考虑 RGB 和深度之间的相关性,探索了用于确保 RGB 和深度之间有效信息流的内部和交叉相关模块的有效融合策略。实验结果表明,该方法在对象姿态估计方面的表现优于现有方法,并证明了该方法可以为真实世界的机器人抓取任务提供准确的物体姿态估计。
Sep, 2019