DPC-Net:用于视觉定位的深度姿态校正
本文研究如何利用深度学习估计点云里程计,并提出了一个称为 DeepPCO 的新型神经网络模型,可通过估计连续点云来预测 6 自由度姿态,实验结果表明该方法在位姿准确性方面表现良好。
Oct, 2019
本研究针对两幅图像之间密集像素对应估计的挑战进行探讨,提出了一种基于粗到细的 CNN 框架,能够扩展光流方法的优势,解决大范围变换并提供密集和亚像素准确估计的问题,并在相对摄像机姿态估计问题上表现优异。
Oct, 2018
论文探讨了使用几何学和场景重投影误差等新颖的损失函数进行深度学习相机位姿回归的方法,同时展示了该技术在不同数据集上比 SIFT 算法更好的性能。
Apr, 2017
本研究提出了一种基于深度神经网络的视觉损失函数,通过对凸形物体外轮廓的对齐来驱动位姿更新进行模型为 6D 姿态精修的处理,方法无需确定外观模型、免除了手动图像分割、同时能够处理遮挡问题和几何不对称性与视觉模糊问题,并且能够在没有深度数据的情况下准确地估算物体位姿。
Oct, 2018
本研究利用深度神经网络进行对物体在已知场景下的姿态估计,其中提出了使用场景无关的神经网络模型 PixLoc,通过特征学习和度量学习方法将相机定位问题转换为多尺度特征直接对齐,该模型以像素数据作为输入并经过端到端训练后能够在大型环境中实现定位,同时通过精确的稀疏特征匹配以更小的代价实现关键点和姿态的联合优化。
Mar, 2021
本研究提出了一种新的基于卷积神经网络的多任务全局姿态矫正和里程计评估方法 VLocNet,该模型结构紧凑、可实现实时推断,并采用了一种新颖的辅助损失函数来利用相关位姿信息进行训练,在室内和户外数据集上的实验结果表明,该模型具有可与 SIFT 算法媲美、甚至优于其表现的定位精度。
Mar, 2018
提出了一种增强型概率密集对应网络 (PDC-Net+), 可以同时估计准确的密集对应关系和可靠的置信度分布,通过联合学习流估计和不确定性来预测密集匹配度,并且在自监督训练环境下具有更加稳健和可泛化的不确定性预测策略,对几何匹配和光流数据集取得了最先进的结果,并证明了概率置信度估计在姿态估计、3D 重建、图像定位和图像检索方面的有用性。
Sep, 2021
本文提出了一种基于密集对应的三阶段六自由度物体检测方法,称为 DPODv2(密集姿势物体检测器),结合了 2D 物体检测与密集对应估计网络以及多视图姿态细化方法来估计完整的 6 自由度姿态,其使用了不同成像模式(RGB 或 Depth)作为输入。实验结果表明,RGB 成像在对应估计方面表现优异,而如果存在良好的 3D-3D 对应,则深度成像可提高姿势精度。
Jul, 2022