- ICCVWaveNeRF:基于小波的通用神经辐射场
WaveNeRF 通过将多视角立体重建技术与神经辐射场(NeRF)相结合,利用小波频率分解在不需要针对每个场景进行优化的情况下实现了高质量的综合合成。
- 自由形状物体扫描的光度特征转换学习
我们提出了一个新颖的框架,用于自动学习多个非结构化视图中的光度测量并转换成空间上具有区分度和视角不变性的低级特征,以增强三维重建。我们联合训练了大量合成数据来处理采集期间的光照条件和特征转换。我们进一步构建了一个系统,从手持扫描中重建出各种 - RayMVSNet++:基于光线的一维隐式场用于精准多视角立体重建
基于学习的多视角立体摄影 (MVS) 主要集中在 3D 卷积在成本体积上,本文中,我们选择直接优化每个相机光线上的深度值,通过模拟激光扫描仪的测距,从而减轻计算和内存消耗。我们提出了 RayMVSNet,在每个相机光线上学习 1D 隐式场的 - 一次一个:多步体积概率分布扩散用于深度估计
本文提出了一种利用 Volumetric Probability Distribution 及 Markov chain 的深度估计任务多步分布逼近过程的方法,并在 MVS 和 SSC 方面取得了最新的研究成果。
- C2F2NeUS:用于高保真和通用神经表面重建的级联成本截锥体融合
本文介绍一种新的多视角立体 (MVS) 和神经隐式表面 (NIS) 相结合的方案,该方案结合了两种技术的优势,通过构造每视角代价锥提高几何精度,融合不同视角锥并估计隐式符号距离函数来解决噪声和孔洞问题,并通过级联锥融合策略有效捕捉全局 - - CVPR可学习配准实现的即时多视角头部捕捉
TEMPEH 是一个基于多视图图像拍摄的 3D 头部模型重建方法,它采用体积特征表示法,联合训练 3D 头部批量数据集的非刚性注册,从而实现了直接从校准的多视图图像中推断出密集对应的 3D 头部模型,而无需进行扫描,该方法可以高效地捕获包含 - 计算三维地形显微镜 —— 每个样本数百万兆字节的数据处理
本文提出了一种大规模计算机 3D 地形显微镜,可实现超过 110 平方厘米范围内的微米分辨率的 6 千万像素的三维成像,并且使用基于神经网络的算法重建出整个视场的光度合成和三维高度图,应用于文物保护、工业检测等领域。
- 使用带引导的稀疏特征体积融合从单目视频中增量稠密重建
本文提出了基于特征体积的实时密集重建方法,采用稀疏的深度特征体积来预测 TSDF 值,通过多视角图像聚合细节信息进行时序融合,实现了比以往更高分辨率和更完整细节的三维几何图形重建,其在室内和室外场景中都比现有的方法具有更好的实时重建性能。
- IJCAICostFormer: 多视图立体匹配中的成本聚合成本变换器
本论文提出了一种名为 CostFormer 的高效 Transformer-based 成本聚合网络,其中 Residual Depth-Aware Cost Transformer(RDACT)用于通过沿深度和空间维度的自我注意机制聚合成 - CVPR多视角立体表示重新审视:区域感知的 MVSNet
本研究使用深度学习等技术,提出了一个基于点到表面距离的补丁感知(patch-awared)多视角立体重建(multi-view stereo)方法,能够更好地重建纹理缺失区域和表面边界,并且经过实验证明,在 DTU 和 Tanks & Te - CVPR用点嵌入多视角立体视觉重建手部
POEM 方法设计了基于点的特征融合和跨集点注意力机制,实现了使用多视图图像信息提取 3D 特征并重建手部网格模型,优于现有最新技术。
- AAAI重新思考视差:基于视差的深度范围无关多视角立体匹配
本文提出一种基于视差流和图像 2D 成本体构建的多视图立体视觉方法 - DispMVS,该方法对深度范围无敏感性且使用 GPU 内存更少,具有良好的多视角一致性和匹配效果。
- 半监督深度多视图立体
本文提出了一种基于半监督学习的多视角立体视觉 (SE-MVS) 框架,其中一些 MVS 数据仅带有稠密深度地面实况。通过一致性正则化和样式一致性损失来提高深度估计的精度和完整性,实验结果表明该方法优于全监督和无监督方法。
- MVSTER:高效的多视角立体匹配的基于极线变换机制的转换器
本文介绍一种名为 MVSTER 的新型多视角立体重建方法,该方法利用提出的极线 Transformer 以高效地学习 2D 和 3D 信息,采用级联结构以构建更精细的深度估计,通过熵正则化的最优传输算法来提高重建性能并显著减少运行时间。
- CVPRRayMVSNet: 基于光线的 1D 隐式场学习用于精确的多视图立体匹配
本论文提出了一种基于 RayMVSNet 的多视角深度学习,通过直接优化沿每个摄像头光线的深度值来降低了计算和存储的成本,其处理基于转换器特征进行的串行建模是传统多视角立体匹配的重要方法,并且在 DTU 和 Tanks & Temples - CVPR多视图立体成像中的 3D 平面重建
本文提出了一种名为 PlaneMVS 的新型框架,用于从具有已知相机姿态的多个输入视图中重建 3D 平面。采用多视角几何的 MVS 流水线将平面重建解耦,采用倾斜平面假设来取代传统深度假设并最终学习像素级平面参数及其平面深度图。通过大量室内 - CVPR基于不确定性感知的深度多视角光度立体
本文提出一种有效的解决方案,利用光度立体测量和多视角立体测量的互补优势,通过基于不确定性感知的深光度立体网络和深多视角立体网络估计每像素表面法线和深度,从而实现密集、详细和精确的物体表面轮廓重建。
- ICCV基于置信度的深度和表面法向迭代求解器用于深度多视角立体视觉
介绍了一种基于深度学习的多视角立体匹配系统,采用一种新型求解器,通过优化基于本地平面假设的能量潜力,迭代地求解每个视角的深度图和法向量图,并监测由定制的置信度地图产生的效果。
- ICLR基于曲率引导的动态尺度网络在多视图立体匹配中的应用
本文提出了一种动态尺度特征提取网络 (CDSFNet),通过引导图像表面的法线曲率选择适当的补丁尺度,以学习判别特征,进而提高匹配成本的性能,该方法在复杂的室外场景中性能优于其他最先进的方法,并能够以更快的运行时间和更低的内存处理更高分辨率 - IterMVS: 迭代概率估计用于高效多视角立体
IterMVS 提出了一种新的数据驱动方法来进行多视角高分辨率立体视觉,并使用基于 GRU 的估计器对深度的像素概率分布进行编码,结合多尺度匹配信息进行多次迭代,并通过分类与回归的结合来提取深度图。在 DTU,Tanks&Temples 和