该研究提出了一种基于神经网络的方法,将传统图像定位模型的迭代优化方法替换为两个网络之间的组合,该组合由视图图形清理网络和微调网络组成。
Dec, 2019
该论文提出了一种从深度回归模型中提取旋转概率估计的方法,并将其扩展到 SO (3) 旋转群的目标上,该方法在合成和真实数据中都获得了良好的结果。
Apr, 2019
本文介绍了使用深度神经网络从原始图像像素中获取相对相机姿态估计的任务。提出的 RPNet 网络以成对的图像为输入,并直接推断相对姿态,无需相机内 / 外参数。通过使用 Cambridge 地标数据集上的实验结果表明,相对姿态的全翻译矢量的恢复很有前途,而且在传统方法不稳定的情况下更加准确和稳定。RPNet 是恢复相对姿态中全翻译矢量的首次尝试。
Sep, 2018
本文提出了一种基于卷积神经网络的方法来估计两个相机之间的相对姿态,该方法采用来自两个相机的 RGB 图像作为输入,并直接输出相对旋转和平移。与 SURF、ORB 这些广泛使用的局部特征方法相比较,该方法采用端到端的方式训练,利用大规模分类数据集进行迁移学习,结果表明相对基准线有明显的改进。此外,本文还介绍了一种包含空间金字塔池化 (SPP) 层的网络结构变体,并证明进一步提高了性能。
Feb, 2017
本篇论文提出了一种基于卷积神经网络(CNN)的模型 “RotationNet”,该模型通过多视角图像作为输入,共同估计物体的姿态和类别,并使用无对齐数据集中学习的潜在的视点标签,通过部分输入多视角图像可以推断出结论,与其他方法不同,RotationNet 实现了不需要以往所依赖的工具,在全物体分类和姿势估计方面均取得了最新的成果,有效性已经得到证实。
Mar, 2016
通过 2D-2D 特征匹配技术,利用旋转平均算法设计一种可快速而又准确地估算单目相机旋转方向的系统,该系统通过维护一个视图图形并解决旋转问题来估算摄像机轨迹和地图,并驱动 V-SLAM 系统跟踪纯旋转运动。
Oct, 2020
UprightNet 是一种学习方法,通过使用几何推理,从单张室内场景的 RGB 图像中估计相机的 2DoF 方向;该方法中包含了一个神经网络,可以在两个不同的坐标系中预测场景的几何表示,并通过可微的最小二乘模块解决相机定向问题,从而实现了端到端的训练并且在合成和真实数据集上实现了明显的优化。
Aug, 2019
本文中,我们提出了旋转等变向量场网络(RotEqNet),这是一种卷积神经网络(CNN)体系结构,可以编码旋转等变性、不变性和协方差性,并在图像分类、生物医学图像分割、方向估计和拼接匹配等多个问题上进行了测试。结果表明,相较于许多数量级更大的网络,RotEqNet 可以提供非常紧凑的模型,并提供与后者类似的结果。
Dec, 2016
提出了一种多视角注视估计任务并跨视图特征融合的方法,通过使用相对旋转矩阵来训练网络提取可旋转的特征表示,并自适应地通过堆叠的融合模块融合这些特征,显著提高了模型在未见头部姿势下的泛化性能。
May, 2023
提出了一种基于自动矫正网络的数据预处理方法,解决了手持场景下旋转运动对单视角深度估计的干扰问题,并针对不同数据集验证了该方法的有效性及通用性。
Jun, 2020