- 走向人类级别的三维相对姿态估计:通用化、免训练、单个参考
用 RGB-D 参考图像的 2.5D 形状、现成可微分渲染器以及 DINOv2 预训练模型提取的语义线索为基础,无需标记和训练,提出了一种新颖的可推广的三维相对姿态估计方法,通过渲染与对比新的 RGB 和语义地图,实现了只需单个 RGB-D - CVPR高分辨率开放词汇对象 6D 姿态估计
Horyon 是一种基于开放词汇量的 Vision-Language Model 架构,通过使用自然语言描述来解决视觉中六维位姿估计任务中未见过对象之间的相对位姿估计问题,并在四个数据集上实现了最先进的性能,优于之前的方法。
- 打破框架:通过视觉重叠预测进行图像检索
通过视觉变换器主干和图像重叠预测,我们的方法借助于投票机制评估潜在数据库图像的重叠得分,从而在挑战性场景中提供更准确的相对姿态估计和定位结果。
- 多摄像头系统的六点法与降低解决方案空间
使用点对应(PC)进行相对姿态估计是一种广泛应用的技术,本文提出了几种最小求解器,使用六个 PC 来计算多相机系统的六自由度相对姿态,包括广义相机的最小求解器和两个用于实际配置的双相机架构的最小求解器。
- 高通量视觉纳米无人机相对定位的基于机载全卷积神经网络的方法
基于低分辨率相机和超低功耗车载 SoC 的垂直集成系统,通过全卷积神经网络(FCNN)在纳米无人机之间背对背的相对姿态估计方面取得了显著改进。
- SE (2) 中的多机器人相对位姿估计与可观测性分析:扩展卡尔曼滤波和鲁棒位姿图优化的比较
本文研究了多机器人定位问题,重点关注合作定位和相对位姿估计的可观测性分析。通过通信网络和消息传递,可以为每个机器人提供额外信息来进行合作定位。如果目标机器人的里程数据可以传输给自我机器人,那么只需要范围测量或方向测量,且两者的线速度均非零, - 非刚体多角度相机的相对姿态:静态案例
考虑多视角相机、非刚性组件、重力效应以及可观测性分析,本文提出了一种估计不同空间方位下静态非刚性组件相对姿态的方法,并在实际示例中展示了对重力的感知能力和相关的实用性讨论。
- RGBD 相对位姿估计中的几何深度一致性
该论文介绍了一种相对位姿估计方法,利用 RGBD 相机的 RGB 和深度信息,通过几何深度约束和嵌套 RANSAC 算法实现对相机位姿的快速准确估计。
- 遮挡下的协作概率轨迹预测
在视觉遮挡下的感知和规划对于安全关键任务至关重要,本论文设计了一种端到端网络,通过相对位姿估计在有遮挡的情况下合作估计遮挡行人的当前状态,并具有安全保证的轨迹预测,实验证明在遮挡下,由本体代理进行的遮挡行人不确定性感知轨迹预测与没有遮挡的真 - 利用线条进行双视点相对位姿估计手册
我们提出了一种估计已标定图像对之间相对位姿的方法,通过综合利用点、线及它们在混合方式下的重合情况。我们研究了这些数据模态可以共同使用的所有可能配置,并回顾了文献中可用的最小求解器。我们的混合框架结合了所有配置的优点,在具有挑战性的环境中实现 - 多摄像头系统间平移对应关系用于相对位姿估计
本文提出了一种新方法,利用两个仿射对应关系来计算多相机系统的相对姿态,该方法可用于解决 6DOF 相关姿态估计问题,通过特殊参数化和几何约束之间的关系,使得所提出的求解器比现有算法更有效且更准确,并可用于解决其他各种相关姿态估计问题。
- 通过可微分的非线性最小二乘学习对应不确定性
本文提出了一种可微的非线性最小二乘框架,用于考虑特征对应的相对姿态估计中的不确定性,并通过不同 iating 估计过程中的相机姿态来估计特征位置的协方差。我们在合成、KITTI 和 EuRoC 实际数据集上评估了我们的方法,并发现我们的方法 - FN-Net: 通过滤除噪声去除异常值
本文提出了一种卷积神经网络来过滤杂点,输出特征点对是内点的概率并回归表示相机相对姿态的本质矩阵,实验结果表明我们的方法在相对姿态估计方面优于现有技术。
- SEKD:自适应进化的关键点检测和描述
使用自监督框架 SEKD 从未标记的自然图像中学习高级局部特征模型,实现了与传统手工精制和基于深度神经网络方法相比表现更好的齐次估计、相对姿态估计和结构运动任务检测。
- CVPR混合表示下的极端相对姿态网络
本文介绍了一种新的 RGB-D 相对位姿估计方法,该方法适用于小重叠或非重叠扫描,并且可以输出多个相对位姿。该方法执行场景补全和匹配补全的扫描。
- CVPR单个仿射对应关系的相对位姿最小解
利用特征点之间的仿射变换来解决相对位姿估计问题,提出了四种方法并证明了它们的有效性,可以在 RANSAC 循环中用于异常值检测和初始运动估计。
- CVPR强化特征点: 针对高级任务优化特征检测和描述
该研究论文提出一种嵌入完整视觉流水线中的特征检测器训练方法,通过强化学习的原则克服关键点选择和描述符匹配的离散性,并通过实验表明该方法可以提高基于学习的特征检测器在任务中的准确性。
- GIFT:基于组卷积神经网络的不变变换密集视觉描述符学习
本文介绍了一种名为 Group Invariant Feature Transform (GIFT) 的可区分性强、鲁棒性强的视觉描述符,其利用基于组的卷积提取从图像的转换版本中提取的特征信息,相对于聚合特征的方法,GIFT 对于一组变换有 - 从本质矩阵学习视觉定位
通过相对位姿来实现的视觉定位方法中,经典的基于特征点的方法具有最好的表现,替换为深度学习的方法后其性能不佳,本文分析了原因并给出了未来工作的建议。
- CVPR用于直接配对注册的三维局部特征
本文提出了一种基于数据驱动的方法来解决点云配准问题,通过增加姿态变换描述符的相对姿态估计网络来实现对于全球配准的转换线索,然后通过假设和验证算法来快速使用预测进行对齐,实验表明这种方法在点云配准问题上的表现超过了现有技术。