PoseNet:一种用于实时六自由度相机重定位的卷积网络
研究使用卷积神经网络 (CNNs) 和传递学习 (transfer learning) 进行 6 自由度 (6-DoF) 相机位姿估计,通过对数据集特征的研究改进 PoseNet 性能,尤其强调视野对图像分辨率的重要性,给出数据增强方案以减少过拟合,对 LSTM 单元的效果进行了研究,并最终结合这些修改方案优化了单目 CNN 相机姿态估计的性能。
Sep, 2019
本文提出了一种新的方法,使用卷积网络 (ConvNet) 预测语义关键点结合可变形形状模型,从单张 RGB 图像中估计物体的连续六自由度 (6-DoF) 姿态 (三维平移和旋转),可以应用于基于实例和类别的姿态恢复,且无论是纹理还是无纹理对象均可。实验结果表明,该方法可在杂乱背景下准确地恢复实例和类别物体的 6-DoF 姿态,并在大规模 PASCAL3D+ 数据集上显示出最先进的精度。
Mar, 2017
该论文介绍了一种新的卷积神经网络,PoseCNN,可用于解决机器人与真实世界互动时的 6D 目标位姿估算问题,并提供了解决对称物体的新型损失函数和一个大型视频数据集。
Nov, 2017
本文提出了一种基于深度学习的摄像机再定位方法,通过卷积神经网络检索相似的数据库图像,并预测查询图像与数据库图像之间的相对姿态,使用 RANSAC 算法进行相对平移估计,并使用第二个 RANSAC 方案将相对姿态融合;此外,作者提出了一个涵盖 5 种不同场景的挑战性室内定位数据集,并在标准的 7 Scenes 测试基准上对方法进行了评估,结果表明该方法适用于之前未见过的场景,并与其他基于 CNN 的最新方法相比效果优异。
Jul, 2017
该论文提出了一种从单个 RGB 图像中估计物体连续 6-DoF 姿态的方法,该方法结合了经卷积网络预测的语义关键点和可变形的形状模型,同时采用了半自动数据生成技术来训练可学习组件,在实验中该方法达到了与现有技术相当的结果。
Apr, 2022
本文介绍了一种新的基于深度图像的单镜头 6D 物体姿态估计方法,使用全卷积神经网络实现,通过将三维输入数据在空间上离散化,将姿态估计视为一个回归任务来处理,在所得到的体元上局部求解。该方法是端对端优化的,不需要手动标注 6D 姿态的真实世界数据,依靠完全使用合成数据进行训练的方式得到了良好的性能。实验验证了该方法在公共基准数据集上的优异表现。
Apr, 2020
论文探讨了使用几何学和场景重投影误差等新颖的损失函数进行深度学习相机位姿回归的方法,同时展示了该技术在不同数据集上比 SIFT 算法更好的性能。
Apr, 2017
本文介绍了一种使用循环模型进行短视频聚合并实现相机定位的方法。通过考虑短视频的时间平滑性,不仅可以使位姿估计更加平滑,还可以显著降低相机定位误差,并提出了一种从该模型中获得概率位姿估计的方法。我们在实际的自动驾驶和室内定位数据集上进行了评估。
Feb, 2017
本文介绍了一种基于深度卷积神经网络的方法,能够通过对特定对象类的分类和姿态回归,从单个或多视图中准确地推断大量对象类的六自由度姿态,并通过 SE(3)的均匀镶嵌提高了鲁棒性。作者还提出了一种适用于单视角存在歧义的高效多视图框架,并在 YCB-Video、JHUScene-50 和 ObjectNet-3D 三个大规模基准测试中取得了优异的表现,与目前现有技术相比表现优秀。
Mar, 2018