SurfaceNet+: 一种用于极度稀疏的多视角立体视觉的端到端 3D 神经网络
该论文提出了一种名为 SurfaceNet 的端到端学习框架,可用于多视图立体成像中的 3D 建模,并通过大规模 DTU 基准测试对 SurfaceNet 进行了验证。
Aug, 2017
本文提出了一种名为 M^3VSNet 的新型无监督多指标 MVS 网络,用于稠密点云重建,该网络通过结合像素和特征损失函数来学习来自不同视角的匹配对应的内在约束,并将深度图从相机空间转化为点云,并改善了深度图的精准性和连续性,该方法在 DTU 数据集上表现出了与以往有监督方法可比较的性能,并在坦克和寺庙基准测试中证明了其强大的泛化能力。
Apr, 2020
提出了一种采用多指标无监督方法的多视点立体匹配网络,名为 M^3VSNet,用于稠密点云重建,结合像素级和特征级两种损失函数学习从不同角度的匹配对应的内在约束,并将法向深度一致性融入到三维点云格式中,从而提高深度估计图的准确性、连续性和鲁棒性。实验结果表明,该方法在 DTU 数据集上达到了有监督方法的水平,并在 Tanks and Temples 基准上获得了有效的改进和强大的泛化能力。
Apr, 2020
DeepMVS 是一种用于多视图立体重建的深度卷积神经网络 (ConvNet),它可以对任意数量的姿态图像进行处理以预测高质量的视差图,其有效的信息聚合方法和采用 VGG-19 网络的多层特征激活实现了优异的效果。
Apr, 2018
3DVNet 是一种结合了先前基于深度和体积的 MVS 方法优点的新型多视图立体 (multi-view stereo) 深度预测方法,使用基于体积的三维卷积神经网络来对所有深度图进行操作,并能够学习有意义的场景级先验知识,其在深度预测和 3D 重建度量上均超越了现有技术,证明该方法在新的环境下具有很好的效果和通用性。
Dec, 2021
Point-MVSNet 是用 point clouds 直接处理目标场景的深度学习网络,通过将 3D 几何先验和 2D 纹理信息融入特征增强的 point cloud 中,实现了在 multi-view stereo 中更高的精度、更高的计算效率和更大的灵活性。
Aug, 2019
本文提出了一种用于计算多视图深度图的端到端深度学习框架 (MVSNet),首先提取深度视觉图像特征,然后利用不同 iable homography 变形构建 3D 成本体积,并使用 3D 卷积对初始深度图进行规则化和回归,最终与参考图像相结合生成最终输出,其通过引入基于方差的成本度量来适应任意 N-view 输入, 其表现优于现有同类方法并能很好地泛化于室内室外数据。
Apr, 2018
本文提出了一种新型网络,利用少量稀疏图像输入,能够恢复三维场景几何信息和高分辨率彩色图像,并通过粗略到精细的球形追踪技术可以大幅提高速度,方法在多个数据集中都取得了可比较的精度。
Aug, 2021
本研究使用深度学习等技术,提出了一个基于点到表面距离的补丁感知(patch-awared)多视角立体重建(multi-view stereo)方法,能够更好地重建纹理缺失区域和表面边界,并且经过实验证明,在 DTU 和 Tanks & Temples 数据集上达到了最佳重建效果。
Apr, 2023
本研究旨在提高多视角立体成像 (MVS) 技术的效率,并提出了一种基于深度学习的 Fast-MVSNet 稀疏到稠密分层框架,其在局部区域内使用小型卷积神经网络对深度依赖关系进行编码,通过高分辨率的稀疏深度图以及高效的高斯牛顿层优化深度图,取得与 Point-MVSNet 和 R-MVSNet 相同或更好的结果,可在 Tanks and Temples 和 DTU 数据集中五到十四倍地提高速度。
Mar, 2020