高分辨率多视角立体深度推测的循环 MVSNet
本文提出了一种用于计算多视图深度图的端到端深度学习框架 (MVSNet),首先提取深度视觉图像特征,然后利用不同 iable homography 变形构建 3D 成本体积,并使用 3D 卷积对初始深度图进行规则化和回归,最终与参考图像相结合生成最终输出,其通过引入基于方差的成本度量来适应任意 N-view 输入, 其表现优于现有同类方法并能很好地泛化于室内室外数据。
Apr, 2018
DeepMVS 是一种用于多视图立体重建的深度卷积神经网络 (ConvNet),它可以对任意数量的姿态图像进行处理以预测高质量的视差图,其有效的信息聚合方法和采用 VGG-19 网络的多层特征激活实现了优异的效果。
Apr, 2018
本文提出了一种基于学习的方法,通过迭代索引平面扫描成本体积并借助卷积门控循环单元来回归深度图,从而进行多视角深度估计。经过对真实世界多视图数据集的大量实验,验证了该方法在数据集内部性能和跨数据集概括性能方面都达到了最先进水平。
May, 2022
本研究提出了一个名为 WHU 的合成航空数据集,该数据集是首个大规模的多视角航空数据集,并介绍了一种名为 RED-Net 的新型神经网络,专门用于高精度的三维地球表面重建。通过实验,我们证实了该方法的性能和效率,在减少内存和计算成本的同时,使 MAE 提高了 50%以上,并且比传统方法的一些最佳商业软件的效率提高了 16 倍。
Mar, 2020
Point-MVSNet 是用 point clouds 直接处理目标场景的深度学习网络,通过将 3D 几何先验和 2D 纹理信息融入特征增强的 point cloud 中,实现了在 multi-view stereo 中更高的精度、更高的计算效率和更大的灵活性。
Aug, 2019
提出一种高效的多视角立体(MVS)网络以实现多视角图像的三维重建和深度推断,其采用策略推断出粗到细的深度图,其中引入自注意力层与相似度测量来生成新的代价体以进行深度图细化,最终实验表明该模型优于大多数 SOTA 方法。
Nov, 2020
本文介绍了一种利用长短时记忆的新型递归多视角立体视觉网络,该网络基于自适应聚合,并提出了协同作用的自适应聚合模块,有效改善了局部细节和大低纹理表面的性能,并且在各种数据集上取得了出色的表现。
Aug, 2021
该论文提出了一种在线多视角深度预测方法,使用 ConvLSTM cell 实现对过去一定量信息的压缩,并考虑了时间步之间的视点变化,通过对先前的深度预测进行位移实现细胞的隐藏态的传播。该方法在实时性能的基础上带来了显著的深度预测的提高,并在数百个室内场景中表现出了优异的状态,代码详见 https://thisURL。
Dec, 2020
本文提出了一种既节省时间又节省内存的立体成像方法,该方法在几何和语境的渐进细化尺度中构建标准的特征金字塔下的代价体,随着不断增加的代价体分辨率以及深度(或差异)间隙的自适应调整,以较粗糙的方式从粗到细恢复输出。
Dec, 2019
本论文提出了一种基于 RayMVSNet 的多视角深度学习,通过直接优化沿每个摄像头光线的深度值来降低了计算和存储的成本,其处理基于转换器特征进行的串行建模是传统多视角立体匹配的重要方法,并且在 DTU 和 Tanks & Temples 数据集上的评估结果表明其优于之前所有的学习方法。
Apr, 2022