动态场景的多视角稠密深度图计算模型
本文提出了一种新的方法,可以从动态场景的一组图像中合成任意视角和时间的图像,通过单视图深度(DSV)和多视图立体深度(DMV)的结合,重新估计视角和时间下的一致性和深度信息,从而精确的合成真实感极强的虚拟视图。
Apr, 2020
本文提出了一种基于多个描述符的迭代投影方法,关注在纹理加深度表示的 3D 场景中,压缩不失真的深度图,通过考虑多个视角的多引描述,可以使收敛的深度图比原始量化版本具有更高的精度。
Feb, 2014
该论文提出了一种基于几何一致性的多尺度引导的多视角立体方法,其中利用结构化区域信息采样更好的候选假设,进而推断每个像素的聚合视图子集,以及将 ACMH 与多尺度几何一致性指导(ACMM)相结合,以便在粗略尺度上获取低纹理区域的可靠深度估计并保证它们可以传播到更细的尺度。
Apr, 2019
提出了一种多摄像机系统来实现密集的三维重建和自我运动估计,通过多摄像机间的几何估计和单目深度优化来获得鲁棒的几何深度和姿态估计,同时通过深度优化网络引入可学习的场景先验,从而在具有挑战性的动态室外环境中实现了稠密、一致的三维重建。
Aug, 2023
本文提出了一种新的多视图立体(MVS)深度图计算优先级方法,该优先级方法在 MVS 算法执行之前进行两步操作,包括寻找匹配伙伴并根据观测质量对结果进行排名,另外还使用了一种基于机器学习的信心预测器,能够对图像星座的质量进行评估,并提出一种优先级方法来构建稳固的三维重建基础,实验表明使用该方法能够在文化遗产保护和建造重建领域中达到更好的重建质量。
Mar, 2018
提出了一种使用 Transformer 架构学习隐式多视图一致场景表示并引入一系列 3D 数据增强技术的方法来增加视角多样性的深度估计网络,同时介绍了引入视角合成作为辅助任务,该网络在不使用显式几何约束的情况下在立体和视频深度估计方面取得了最先进的结果, 并在零样本领域泛化方面有了显著的提高。
Jul, 2022
本文提出了一种用于估计一致密集深度图和相机姿态的算法,该算法基于学习的深度先验和几何优化相结合,不需要输入相机姿态,并能够在包括噪声、抖动、运动模糊和卷帘快门失真等多种挑战性条件下实现稳健的重建。
Dec, 2020
本文提供了一种使用单目图像进行深度估计的方法,提供了一个大规模且多样化的数据集 Diverse Scene Depth 进行训练,学习到了不受仿射变换影响的深度信息,并通过多分支课程训练实现了对复杂场景的高质量深度恢复。
Feb, 2020
本文提出了一种新的端到端模型,以 RGB 和稀疏深度为输入,联合执行语义分割和深度完成,通过实验表明将语义分割和深度完成结合在一个多任务网络中可以有效提高每个任务的性能。
Sep, 2022