现场 SfM: 你所捕捉的就是你所得的
通过结合特征提取和匹配方面的发展,我们设计了一个模块化的 SfM 框架,旨在研究全局 SfM 与增量 SfM 方法的性能表现,并且实验证明,在不同数据集上,基于深度学习的两视图对应估计在点密度方面有所提升,但仍不如 SIFT 与增量 SfM 方法相比。
Nov, 2023
本文提出一种可扩展的结构运动问题(SfM)求解方法,通过引入相机聚类算法将大型 SfM 问题划分为具有重叠的相机簇的子问题,并将局部增量 SfM 的相对位置应用到全局运动平均框架中以产生准确且一致的全局相机位姿。我们能够重建含有超过一百万张高分辨率图像的城市级数据集的相机位姿,在基准、Internet 和序列数据集上表现出卓越的准确性和鲁棒性。
Feb, 2017
该研究提出了一种基于图像的实时定位方法,通过结合一种基于二进制特征描述符的快速关键点跟踪方法和一个新的直接 2D 到 3D 匹配方法,有效地对大场景下的相机位置进行计算,并实现了实时的运行效果。
Mar, 2012
我们提出了一种新的深度管道 VGGSfM,其中每个组件都是完全可微的,因此可以进行端到端的训练,通过引入新的机制和简化,我们在三个流行的数据集 CO3D,IMC Phototourism 和 ETH3D 上实现了最先进的性能。
Dec, 2023
本文探讨将语义分割技术整合进 Structure from Motion (SfM) 中,通过利用卷积神经网络对输入图像进行像素标记,进而应用于 3D 点云的估算,并比较标记语义的关键点。在一个重复建筑场景的数据集上进行了验证,提出了一种改进 3D SfM 模型的新方法。
Apr, 2023
该论文通过使用图注意力网络解决学习结构运动(Structure-from-Motion)的问题,通过学习模型以 2D 关键点为输入,输出对应的相机姿态和 3D 关键点坐标,实现了快速推理和重建,超过了竞争的基于学习的方法并在较短的时间内挑战了 COLMAP。
Aug, 2023
本文通过直接对多个视图中的低级图像信息进行对齐以提高结构运动两个关键步骤的精度,该方法通过采用神经网络预测的密集特征来优化特征度量误差从而提高了相机姿态和场景几何的准确性。
Aug, 2021
该论文提出了一种高效的匹配对检索方法和实现了并行 SfM 重建的集成工作流,通过训练在线个体码书、使用 VLAD 聚合局部特征并通过 HNSW 图结构进行全局描述符索引,以加速匹配对检索并提高 SfM 重建效率。验证实验结果在三个大规模 UAV 数据集上表明,所提出的解决方案加速了匹配对检索,并在相对与绝对定向下都具有竞争性的准确性。
Jul, 2023
提出了一种新的无检测器 SfM 框架,通过注意力机制多视角匹配来改善重建精度,适用于缺少纹理的场景,在基准数据集上优于现有基于检测器的 SfM 系统,并取得了 2023 年图像匹配挑战赛的第一名。
Jun, 2023