不受范围限制的多视角深度估计及关键帧选择
我们的方法通过在网络中添加最新的 3D 几何数据作为额外输入,结合之前的几何提示,利用深度和 3D 场景重建领域中的先前工作,实现了与实时交互速度相比达到最先进的深度估计和场景重建。
Jun, 2024
本研究提出了一种分辨率自适应的自监督单目深度估计方法,通过数据增强和多路径编码器解码器等方法提高特征融合精度,进而在 KITTI,Make3D 和 NYU-V2 等数据集上取得了具有竞争力的结果。
Jul, 2022
本文提出了一种基于光流和稀疏深度先验的方法,将动态场景模型假设为分段平面模型,计算其局部刚性变换和尽可能刚性的全局变换,无需显式估计 3D 旋转和平移即可高效恢复场景的深度密集图,适用于广泛的场景。
Feb, 2019
通过混合数据集训练模型,预测几何保持的深度,并通过渲染重建场景的新视图以及设计损失函数,促进不同视角下深度估计的一致性,实现了对领域特定尺度和平移系数的自主恢复,优于现有最先进方法的多个基准数据集。
Sep, 2023
我们提出了一种新的测试时间优化方法,可以将仿射不变深度模型的健壮性转移到具有挑战性的多样化场景,同时确保帧间一致性,每个视频帧只需优化几十个参数。实验证明,我们的方法在五个零样本测试数据集上实现了最先进的跨数据集重建。
Aug, 2023
该研究论文提出了一种新颖的自监督双帧多摄像头度量深度估计网络 (M^2Depth),旨在预测自动驾驶中可靠的具有尺度感知的周围深度。与以往使用单个时间步的多视图图像或单个相机的多个时间步图像不同,M^2Depth 采用多个相机的时间相邻的两帧图像作为输入,并生成高质量的周围深度。我们首先在空间和时间域中构造成本体积,并提出一个融合空间 - 时间信息的模块来生成强大的体积表示。我们还将 SAM 特征的神经先验与内部特征相结合,以减少前景和背景之间的模糊性并加强深度边缘。在 nuScenes 和 DDAD 基准测试上的大量实验证明,M^2Depth 实现了最先进的性能。更多结果可以在此 https URL 中找到。
May, 2024
本文提出了一种称为 ZeroDepth 的单目深度估计框架,采用输入级几何嵌入和变分潜在表示,并将编码器和解码器阶段解耦合,可以在不同域和相机参数的情况下预测任意测试图像的尺度。在户内(NYUv2)和户外(KITTI,DDAD,nuScenes)基准测试中,使用相同的预训练模型取得了最新的最佳成果,优于基于域内数据训练和需要测试时缩放以产生度量估计的方法。
Jun, 2023
基于稀疏雷达点云和单视角图像的度量密集深度估计的新方法,使用雷达 — 相机框架对深度估计进行全局比例校准、稀疏雷达点与图像补丁的关联学习进行准密度尺度估计以及通过尺度映射学习对密集深度进行局部尺度细化,提高深度估计精度。在挑战性数据集 nuScenes 和自行收集的 ZJU-4DRadarCam 数据集上,与最先进的雷达 — 相机深度估计方法相比,我们提出的方法将深度估计的均方绝对误差 (MAE) 分别降低了 25.6% 和 40.2%。
Jan, 2024
基于大规模数据训练和解决来自不同摄像机模型的度量歧义,实现了在野外图像中无需训练即可广义泛化的单视图度量深度模型,并在 7 个零样本基准测试上展现了领先表现。
Jul, 2023
该论文提出了一种高效的多视图测试时间深度调整方法 MEDeA,相比于现有的测试时间方法,它的处理速度快了一个数量级。通过利用 RGB 帧和相机参数,MEDeA 预测初始深度图,通过优化局部缩放系数来调整它们,并输出具有时间一致性的深度图。与需要法线、光流或语义估计的测试时间方法不同,MEDeA 仅通过深度估计网络就可以产生高质量的预测结果。该方法在 TUM RGB-D、7Scenes 和 ScanNet 基准测试中取得了最新的研究成果,并成功处理了 ARKitScenes 数据集中的智能手机捕获数据。
Jun, 2024