- MVSBoost:一种高效的基于点云的 3D 重建
通过结合多视角全景图像、鲁棒的相机位姿估计、先进的图像处理以及点云密度化、网格重建和纹理生成等技术,本论文提出了一个增强型的多视角立体重建框架,显著提高了传统方法的准确性和精度,在处理遮挡和视角变化的复杂场景重建方面表现出了优异的计算效率和 - Topo4D:用于高保真度 4D 头部捕捉的拓扑保持高斯喷洒
提出了一种名为 Topo4D 的新框架,通过优化校准的多视图时间序列图像来直接生成密集对齐的 4D 头部和 8K 纹理地图,从而简化多视图立体和非刚性对齐方法生成动态拓扑网格和对应纹理地图的过程。
- SDL-MVS:遥感中多视图立体重建的视图空间和深度可变学习方法
基于遥感图像的多视图立体匹配研究推动了大规模城市三维重建的发展,提出了一种基于视点空间和深度可变学习的新范式(SDL-MVS),通过可变学习范式进行视点空间和深度的变形,实现了准确的多视图深度估计。
- 快速通用高斯投影立体视图重建
MVSGaussian 是一种新的通用化的三维高斯表示方法,通过多视点立体视觉 (MVS) 有效重建未见过的场景,具有实时渲染速度和良好的综合质量。
- RobustMVS: 单域通用深度多视角立体视觉
本研究针对多视点立体重建(Multi-view Stereo,MVS)领域中的领域泛化问题,提出了一种名为 RobustMVS 的新型框架,并引入 DepthClustering-guided Whitening(DCW)损失以维持不同视角 - 基于几何信息的自适应轻量级全向视觉鱼眼图像立体视觉的距离候选选择
使用几何信息的候选距离方法可以有效减少计算成本,在多视角立体全向距离估计中取得更好的结果。
- 从航空影像进行深度监督的神经表面重建
通过将深度先验与 Neural Radiance Fields(NeRFs)相结合,我们调查了 NeRFs 在航空图像块表示不同特征的能力,并将其与公开可用的航空图像基准数据集的结果进行了比较。
- 多视图立体重建的自适应学习
本文研究了深度学习在多视图立体视觉任务中的优秀性能,并通过分析现有的损失函数,提出了一种新的自适应 Wasserstein 损失函数以及一个简单而有效的偏移模块,通过在不同基准测试中的广泛实验证明,该方法在自适应 Wasserstein 损 - ICLRGNeRP:基于高斯引导的有噪极化先验的反射物体神经重建
通过基于高斯的法线表示,本文提出了一种监督的方式来学习反射场景中几何形状的细节,通过极化先验引导几何学习,并通过优化过程中的重新权重策略来减轻极化先验的噪声问题,实验证明本文的方法在反射场景的神经三维重建中表现出色。
- GaussianPro:3D 高斯散点投射与渐进传播
通过应用渐进传播策略,并利用场景的先验知识和块匹配技术,我们提出了一种名为 GaussianPro 的新方法,来指导 3D 高斯聚类的密度化,验证实验证明了我们的方法在大规模和小规模场景上的有效性。
- PSDF: 基于先验的神经隐式表面学习用于多视图重建
使用预训练的 MVS 网络和 NISR 模型中的内在几何先验,在复杂的实际场景中实现高质量的神经隐式表面学习和精细重建,并提出可见性感知的几何一致性约束和基于外部几何先验的深度先验辅助采样,以及内部先验引导的重要渲染,以改进神经隐式表面重建 - ICLRMVSFormer++:揭示多视角立体匹配中 Transformer 细节中的问题
近期基于学习的多视点立体(MVS)方法中,引入了具有注意机制的基于 Transformer 模型的最新进展;然而,现有方法对 Transformer 在不同 MVS 模块上的深远影响尚未进行彻底研究,导致深度估计能力有限。本文提出了 MVS - 利用后期成本聚合提升多视图立体匹配
基于学习的多视点立体匹配,我们提出了一种晚期聚合方法,通过整个网络前馈过程对成对成本进行聚合,实现准确的估计,并且仅对普通 CasMVSNet 进行微小改变,从而使后续的深度网络充分利用关键的几何线索。
- 室内场景的单个 RGBD 图像的新视角合成
本文提出了一种从单个 RGBD 输入合成新视角图像的方法,通过利用 RGBD 图像中嵌入的深度信息,将 NVS 任务转换成图像转换问题,并使用生成对抗网络实现类似于从新视角拍摄的照片的结果,而不受传统多图像技术的限制。
- GC-MVSNet:多视角,多尺度,几何一致的多视图立体视觉
本文介绍了一种新的方法,通过在学习过程中明确地鼓励多个源视图的参考视图深度图的几何一致性,加速学习过程,达到了 DTU 和 BlendedMVS 数据集的最新技术水平,并在 Tanks and Temples 基准上获得了有竞争力的结果。据 - ICCV当极线约束遇上多视点立体的非局部算子
应用非局部特征增强和基于双线搜索的 Transformer 方法改进多视角立体视觉的特征匹配,并在学习式 MVS 基线 ET-MVSNet 中加入 Epipolar Transformer 技术,提高了重建性能。
- MP-MVS:多尺度窗口 PatchMatch 和平面先验多视图立体视觉
在本文中,我们提出了一种弹性且有效的多视角立体匹配方法(MP-MVS),该方法利用多尺度窗口 PatchMatch(mPM)获得非纹理区域的可靠深度,并通过改进的棋盘格采样方案和改进的平面先验辅助 PatchMatch(ACMP)来提高立体 - 多视图立体匹配中不确定性量化的内部可靠性的关键分析
本研究分析了在多视图立体(MVS)框架中,利用航空倾斜摄影测量块和 LiDAR 参考数据,包括光束收敛统计、交叉角度、密集图像匹配能量等多个内部匹配度量,以评估摄影测量点云数据的后验可靠性。
- ICCV三维面部重建的分离姿势和形状
提出了一种深度学习技术结合三维可塑模型(3DMM)进行三维人脸重建的方法,通过结合结构运动(SFM)和多视图立体(MVS)技术,构建了一个端到端的流水线,用于稳定准确地求解姿态和形状,并在量化和质量结果方面显示出明显的改进。
- ARAI-MVSNet:具有自适应深度范围和深度间隔的多视角立体深度估计网络
该研究提出了一种新颖的多阶段粗到细的框架,用于实现自适应全像素深度范围和深度间隔的多视图立体重建,通过预测粗糙深度图、自适应深度范围预测和自适应深度间隔调整模块,可以实现更准确的深度估计。实验结果表明该模型在多个基准数据集上取得了最先进的性