本文提出了一种基于强化学习的端到端可训练 PatchMatch 多视角立体视觉方法,实现像素级别深度、法向量的估计,并将其与可训练损失和正则化相结合以解决在深度范围大、视角差距大的场景下的深度估计问题。实验结果表明,该方法在 ETH3D 数据集上表现优异,甚至超过其他最新的基于学习的 MVS 模型。
Aug, 2021
本研究基于卷积神经网络为计算视差匹配的成本聚合,并针对 KITTI2012、KITTI2015 和 Middlebury 立体数据集对该方法进行了验证,结果表明其在所有三个数据集上优于其他方法。
Oct, 2015
本文介绍了如何用卷积神经网络 (CNN) 从图像数据中直接学习通用的相似性函数,以比较图像补丁。我们的实验表明,这种方法在多个计算机视觉问题和基准数据集上都取得了极大的成效。
Apr, 2015
本文提出了一种基于 PatchMatch 的方法来扩展可靠的深度估计,并根据纹理性质修改 Photo-Consistency 测量标准,同时提出了深度细化步骤,以在保留不连续性的同时填补深度图和法线图中的缝隙。
Mar, 2019
我们提出了 PatchmatchNet—— 一个快速且低内存占用的可学习的级联 Patchmatch 算法,用于高分辨率多视角立体匹配,通过引入可迭代的多尺度 Patchmatch 和自适应传播评估方案,我们改进了核心算法,并在 DTU,Tanks&Temples 和 ETH3D 上进行广泛实验,表明该方法在效率方面具有非常良好的性能和通用性,比现有的最佳模型快至少 2.5 倍,内存使用量减少一半。
Dec, 2020
本论文针对室内场景中的无监督深度估计任务,提出了一种名为 P$^2$Net 的方法,该方法利用大局部梯度点提取有效补丁,并使用多视图一致性损失和超像素作为平面先验进行深度预测,实验证明该方法显著优于现有的方法。
Jul, 2020
该研究提出了一种使用 3D 模型和特征合成技术来实现物体多视角特征提取和无关视角比较的方法,并在细粒度图像检索和分类任务中表现出良好的性能。
Nov, 2014
本文提出一种基于多补丁拼接的有效法线估计方法。通过使用局部特征聚合和多支平面专家模块等创新手段,实现在降低计算成本和提高鲁棒性的同时,取得了极具竞争力的效果。
Mar, 2021
提出了一种基于卷积神经网络 (ConvNet) 的方法,用于学习本地图像描述符,可用于显着改善补丁匹配和三维重建,该方法使用多分辨率 ConvNets 学习关键点描述符,并且提出了一个新的数据集,包含比当前可用的 Multi-View Stereo(MVS)数据集更多的图像和正负对应物,并且在视角,尺度和光照变化方面具有更好的覆盖范围。该文对基于提出的描述符学习的补丁匹配和三维重建任务进行了评估,实验结果表明,在评价任务中,提出的描述符优于当前现有的最先进描述符。
Jan, 2017
研究了神经含式表面在多视图 3D 重建中的应用,提出了一种新的添加光照一致性项的神经渲染优化方法 NeuralWarp,并经过了 DTU 和 EPFL 测试,证明其性能优于目前的无监督隐式表面重建技术。
Dec, 2021