3DVNet: 多视角深度预测和体积细化
Point-MVSNet 是用 point clouds 直接处理目标场景的深度学习网络,通过将 3D 几何先验和 2D 纹理信息融入特征增强的 point cloud 中,实现了在 multi-view stereo 中更高的精度、更高的计算效率和更大的灵活性。
Aug, 2019
本文提出了一种用于计算多视图深度图的端到端深度学习框架 (MVSNet),首先提取深度视觉图像特征,然后利用不同 iable homography 变形构建 3D 成本体积,并使用 3D 卷积对初始深度图进行规则化和回归,最终与参考图像相结合生成最终输出,其通过引入基于方差的成本度量来适应任意 N-view 输入, 其表现优于现有同类方法并能很好地泛化于室内室外数据。
Apr, 2018
本文提出 MVDepthNet,在多视图深度估计中编码多视图观察信息,并结合参考图像使用编码器 - 解码器网络生成深度图,并在单目密集映射系统中应用,实现了高效准确的深度图生成。
Jul, 2018
本文介绍了一种名为 VVNet 的卷积神经网络,可从单个深度图像中推断出体积三维场景的占用率和语义标签,VVNet 有效地降低了计算成本,提高了结果的准确性。
Jun, 2018
本文提出 DS-MVSNet,一种端到端的无监督多视点结构,并通过 Adaptive Gaussian Sampling 和 Improved Adaptive Bins Sampling 等方法来提高深度假设的准确性。同时,我们利用源深度来渲染参考图像,并提出了深度一致性损失和深度平滑性损失来提供额外的指导。最后,通过在 DTU 数据集和 Tanks&Temples 数据集上的一系列实验证明了我们的方法相对于现有方法的效率和稳健性。
Aug, 2022
本文介绍了一种利用深度神经网络复制传统的 local depth maps calculation 和 global depth maps fusion 两步骤框架,以改善对 3D 场景重建精度和可解释性的计算机视觉任务方法。此外,作者还提出了一种称为 PosedConv 的旋转不变的 3D 卷积核,用于提高从非常不同视角获取的图像之间的匹配效率。作者在 ScanNet 数据集上进行了大量实验证明提出的方法在深度神经网络和传统计算机视觉技术中具有竞争力。
Aug, 2021
本文提出了一个流程,利用深度神经网络提高三维重建的质量,同时能够处理大型和高分辨率的图像数据集,具体包括针对多视角立体视觉(Multi-View Stereo)设计的置信度预测网络,用于深度地图 outlier 过滤和深度地图细化,从而提高最终三维重建的质量。通过在流行的基准数据集上进行广泛的实验,我们展示了这个流程的优越性,产生了最先进的三维重建质量和效果。
Dec, 2019
本文提出了一种名为 M^3VSNet 的新型无监督多指标 MVS 网络,用于稠密点云重建,该网络通过结合像素和特征损失函数来学习来自不同视角的匹配对应的内在约束,并将深度图从相机空间转化为点云,并改善了深度图的精准性和连续性,该方法在 DTU 数据集上表现出了与以往有监督方法可比较的性能,并在坦克和寺庙基准测试中证明了其强大的泛化能力。
Apr, 2020
提出了一种采用多指标无监督方法的多视点立体匹配网络,名为 M^3VSNet,用于稠密点云重建,结合像素级和特征级两种损失函数学习从不同角度的匹配对应的内在约束,并将法向深度一致性融入到三维点云格式中,从而提高深度估计图的准确性、连续性和鲁棒性。实验结果表明,该方法在 DTU 数据集上达到了有监督方法的水平,并在 Tanks and Temples 基准上获得了有效的改进和强大的泛化能力。
Apr, 2020
DeepMVS 是一种用于多视图立体重建的深度卷积神经网络 (ConvNet),它可以对任意数量的姿态图像进行处理以预测高质量的视差图,其有效的信息聚合方法和采用 VGG-19 网络的多层特征激活实现了优异的效果。
Apr, 2018