Sim2Real 基于物体中心的关键点检测与描述
利用物体分类内部几何规律的数据驱动姿态估计方法。首先,从 2D RGB 图像学习物体部分的姿态不变局部描述符。将这些描述符与来自固定3D 模板的关键点结合使用,生成给定单眼实际图像的关键点对应图。最后,使用这些关键点对应图,预测物体的3D 姿态。该方法在多个真实环境的视角估计数据集,如 Pascal3D + 与 ObjectNet3D 上的表现达到最佳水平,并且我们公开了所使用方法的代码以鼓励再生研究。
Sep, 2018
本论文提出了一种基于端到端学习框架的关键点检测及其表示的方法,以适应于三维深度地图或扫描,通过采样相应的区域提案实现正负样本的自动获取,并在多个基准数据集上进行匹配实验,表明该方法相对于现有方法具有明显的改进。
Feb, 2018
本论文提出了一种基于 RGB 图像的目标检测匹配的学习方法,结合了局部关键点与新颖的物体级特征,通过关联图神经网络训练,在许多视图上具有较好的性能并优于现有的纯关键点匹配方法。
May, 2023
本论文提出了一种同时学习关键点检测、特征描述和本地描述符可区分性预测器的方法,用于解决经典方法中存在的重复区域不具有判别力和描述符在存在歧义区域中的性能问题,在 HPatches 和 Aachen Day-Night 数据集上性能均表现优异。
Jun, 2019
通过提取运动信息(光流和二维关键点),我们展示了神经网络方法可以在仅使用 SURREAL 合成数据的情况下与最先进的基于真实 3D 序列训练的方法相媲美地从 3D 视角估计人体姿态。
Jul, 2019
本文提出了一种基于 ResNet 模型的统一框架,用于关键点检测、特征提取和图像检索,不需要使用点对点的训练数据,利用通用技术在标准 ResNet 模型的连续层中提取局部信息,通过局部响应值的池化提取全局信息,可以在各种具有挑战性的评估条件下获得与最先进方法相当的结果,而无需像素级对应关系的监督。
Jan, 2020
本文介绍了一个新的大型基准测试 Syn2Real,其中包括了一个从 3D 物体模型渲染出的合成域以及两个包含相同物体类别的真实图像域,分别定义了三个相关任务:封闭集物体分类、开放集物体分类和物体检测。评估多种最先进的方法揭示了现有方法在不同任务上存在的许多适应性问题。
Jun, 2018
提出了一个双重完全卷积框架,用于建立 2D 图像和 3D 点云之间的精细对应关系,以直接匹配像素和点,并实现了室内视觉定位的任务中领先的最优结果。
Mar, 2021
本篇研究提出了一种基于关键点的方法,利用单个 RGB 图像进行三维目标检测和定位,该网络基于 2D 关键点检测和几何推理方法,同时估计 2D 特征和全局 3D 姿态,最终在 KITTI 数据集中达到了最好的性能表现。
May, 2019
基于 3D 连续性,我们通过从大规模 SfM 中训练探测器来直接学习关键点,并且通过分离的网络最大化互相最近邻目标来训练描述符。结果表明,我们的方法 DeDoDe 在多个几何基准测试中取得了显著的增益。
Aug, 2023