基于点云融合的时序一致在线深度估计
通过使用双目输入,引进左右一致性损失函数,并提出一种保存边缘特征的损失函数来改善测试时训练中的深度模糊问题,提出了一种稠密的双目视频深度估计方法,调研结果表明该模型精度可靠。
May, 2023
通过利用传统的运动结构恢复来建立视频中像素的几何约束,使用基于学习的先验 —— 一种单图像深度估计的卷积神经网络,我们给出了一种用于重建密集、几何一致深度的算法。测试时,我们对这个网络进行微调,以满足特定输入视频的几何约束,同时保留其在视频中的其他区域中合成可信深度细节的能力。通过定量验证,我们证明了我们的方法比以前的单目重建方法有更高的准确性和更高的几何一致性。我们的算法能够处理具有轻度动态运动的挑战性手持捕获输入视频。改进重建的质量可以用于场景重建和高级视频视觉效果。
Apr, 2020
本文提出了一种用于估计一致密集深度图和相机姿态的算法,该算法基于学习的深度先验和几何优化相结合,不需要输入相机姿态,并能够在包括噪声、抖动、运动模糊和卷帘快门失真等多种挑战性条件下实现稳健的重建。
Dec, 2020
本文提出一种增强单眼深度估计的方法,该方法采用 3D 点作为深度指导,并引入一种轻量级、高效的多尺度 3D 点融合网络,能够处理极其稀疏和不均匀分布的点云,实现了高精度深度估计。该方法优于当前一些基于深度学习的多视角立体和结构从运动方法,不仅精度更高,而且压缩性更好。
Dec, 2020
该研究提出了一种基于可微的光流深度预测层的方法,包括光流深度预测层、相机姿态优化模块和深度融合网络,该方法在三个公共数据集上的实验结果表明其性能优于现有的深度估计方法,并具有合理的交叉数据集泛化能力。
Dec, 2019
本文提出了一种基于光流和稀疏深度先验的方法,将动态场景模型假设为分段平面模型,计算其局部刚性变换和尽可能刚性的全局变换,无需显式估计 3D 旋转和平移即可高效恢复场景的深度密集图,适用于广泛的场景。
Feb, 2019
我们提出了一种新颖的自监督单眼深度估计方法,使用动态成本体积来处理静态环境中的移动物体,通过静态和动态成本体积互补来改善深度图的准确性,并采用金字塔蒸馏损失和自适应光度误差损失来提高精度。实验证明,我们的模型在自监督单眼深度估计方面优于先前发布的基线模型。
Aug, 2023
该研究提出了一种基于动态数据结构的卷积方法,通过全局 - 本地树结构维护局部领域信息,以及增量坐标区间树实现快速点云插入和邻域查询,从而解决在线语义三维分割与 RGB-D 重建中的挑战,实现跨帧时间上的信息融合。
Mar, 2020