使用基于学习的模型(ProbCT)并结合被噪声影响的多视角卫星影像,首次推断了浅散云的后验概率分布,以实现三维异质体散射介质组织成像,并指出了三维恢复和不确定性对降水和可再生能源的相关性。
Mar, 2024
本文提出了一种基于深度学习的场景重建方法,应用了一种新颖的体积场景表示方法 —— 反射体积网格,通过物理可行的可微分体积光线行走框架,渲染出高质量的图像,实现了对具备挑战性的真实场景的重建,而重建得到的反射体积网格可进行编辑,可用于修改捕捉的场景材料。
Jul, 2020
本文提出了基于特征体积的实时密集重建方法,采用稀疏的深度特征体积来预测 TSDF 值,通过多视角图像聚合细节信息进行时序融合,实现了比以往更高分辨率和更完整细节的三维几何图形重建,其在室内和室外场景中都比现有的方法具有更好的实时重建性能。
May, 2023
本文介绍了一种利用深度神经网络复制传统的 local depth maps calculation 和 global depth maps fusion 两步骤框架,以改善对 3D 场景重建精度和可解释性的计算机视觉任务方法。此外,作者还提出了一种称为 PosedConv 的旋转不变的 3D 卷积核,用于提高从非常不同视角获取的图像之间的匹配效率。作者在 ScanNet 数据集上进行了大量实验证明提出的方法在深度神经网络和传统计算机视觉技术中具有竞争力。
Aug, 2021
通过学习,我们提出了一种表示动态物体的方法,该方法由编码器 - 解码器网络和可微分的射线行进操作组成,它不需要明确重建或跟踪物体,使用了 3D 体积表示法,表现出更好的图像质量,为高分辨率应用提供了一种从表面到体积的方法
Jun, 2019
通过多视角深度估计方法实现了精确简易的三维重建,在 ScanNet 和 7-Scenes 等数据集上的效果已经超过目前最先进的深度估计算法。
Aug, 2022
3DVNet 是一种结合了先前基于深度和体积的 MVS 方法优点的新型多视图立体 (multi-view stereo) 深度预测方法,使用基于体积的三维卷积神经网络来对所有深度图进行操作,并能够学习有意义的场景级先验知识,其在深度预测和 3D 重建度量上均超越了现有技术,证明该方法在新的环境下具有很好的效果和通用性。
Dec, 2021
本文提出了一种新的 3D 生成建模框架,使用 2D 卷积运算从多个视角预测 3D 结构,并联合应用几何推理和 2D 投影优化来高效地生成以密集点云形式呈现的物体形状,并引入伪渲染器来合成优化的新深度图,在单张图像 3D 对象重建任务中表现了优越的形状相似性和预测密度。
Jun, 2017
InfiniTAM 是一个新的统一框架,它可以快速灵活地进行 3D 重建,基于 KinectFusion 方法和单目 SLAM 方法,使用截断有符号距离函数来表示体积模型,提供了一系列组件来实现可扩展的 3D 重建。
Oct, 2014
提出了一种使用卷积神经网络(CNN)从立体图像估计深度,利用预测的深度图进行体积融合,进而恢复场景的三维重建方法,该方法采用了新的深度细化架构,实现了先进成本滤波架构成本的近半降低,采用风暴池架构进行特征提取,该方法在多个基准数据集上均取得了领先的成果。
Apr, 2019