MVDepthNet: 实时多视角深度估计神经网络
3DVNet 是一种结合了先前基于深度和体积的 MVS 方法优点的新型多视图立体 (multi-view stereo) 深度预测方法,使用基于体积的三维卷积神经网络来对所有深度图进行操作,并能够学习有意义的场景级先验知识,其在深度预测和 3D 重建度量上均超越了现有技术,证明该方法在新的环境下具有很好的效果和通用性。
Dec, 2021
本文提出了一种用于计算多视图深度图的端到端深度学习框架 (MVSNet),首先提取深度视觉图像特征,然后利用不同 iable homography 变形构建 3D 成本体积,并使用 3D 卷积对初始深度图进行规则化和回归,最终与参考图像相结合生成最终输出,其通过引入基于方差的成本度量来适应任意 N-view 输入, 其表现优于现有同类方法并能很好地泛化于室内室外数据。
Apr, 2018
DeepMVS 是一种用于多视图立体重建的深度卷积神经网络 (ConvNet),它可以对任意数量的姿态图像进行处理以预测高质量的视差图,其有效的信息聚合方法和采用 VGG-19 网络的多层特征激活实现了优异的效果。
Apr, 2018
提出一种融合单视角深度概率和多视角几何的新型框架 MaGNet,以提高多视角深度估计的准确性、鲁棒性和效率,并在 ScanNet、7-Scenes 和 KITTI 数据集上实现了最先进的性能。通过深度一致性加权和概率采样来解决纹理不清晰、反射表面和移动物体等失败模式。
Dec, 2021
Point-MVSNet 是用 point clouds 直接处理目标场景的深度学习网络,通过将 3D 几何先验和 2D 纹理信息融入特征增强的 point cloud 中,实现了在 multi-view stereo 中更高的精度、更高的计算效率和更大的灵活性。
Aug, 2019
该研究提出了一种基于 interest point detection 和 descriptor learning 的深度估计方法,通过三个步骤,匹配、三角测量和稠密化得到 3D 点云,实现了高精度和低计算消耗的双赢,将该方法与强基线进行对比,表现优越。
Mar, 2020
该论文提出了一种在线多视角深度预测方法,使用 ConvLSTM cell 实现对过去一定量信息的压缩,并考虑了时间步之间的视点变化,通过对先前的深度预测进行位移实现细胞的隐藏态的传播。该方法在实时性能的基础上带来了显著的深度预测的提高,并在数百个室内场景中表现出了优异的状态,代码详见 https://thisURL。
Dec, 2020
本文提出了一种基于自编码器的无监督深度卷积神经网络学习框架,通过训练不需要预训练或注释的神经网络,为单视图深度预测提供了一种新的方法。
Mar, 2016
本文提出了使用多视图互联网照片集合生成训练数据以解决现有数据集受限的问题,构建了一个基于此想法的大型数据集 MegaDepth,同时通过新的数据清理方法和自动生成数据的方法解决了 MVS 数据的噪声和无法重构的对象等问题。验证表明,基于 MegaDepth 训练的模型不仅适应新的场景,还适应其他各种数据集。
Apr, 2018
本文提出 DS-MVSNet,一种端到端的无监督多视点结构,并通过 Adaptive Gaussian Sampling 和 Improved Adaptive Bins Sampling 等方法来提高深度假设的准确性。同时,我们利用源深度来渲染参考图像,并提出了深度一致性损失和深度平滑性损失来提供额外的指导。最后,通过在 DTU 数据集和 Tanks&Temples 数据集上的一系列实验证明了我们的方法相对于现有方法的效率和稳健性。
Aug, 2022