使用有序感知网络学习二视图对应和几何
该研究使用多层感知器来优化广基准立体匹配的好匹配点,同时恢复相对位置关系,该网络基于像素坐标运算而非直接图像处理,提出了一种称为上下文规范化的新型正则化技术,使得可以单独处理每个数据点并赋予全局信息。在多个数据集的实验中,该方法使用少量训练数据就能显著提高现有技术的水平。
Nov, 2017
本研究介绍了一种基于卷积神经网络的密集对应关系匹配方法,使用邻域一致性匹配模式在两幅图像所有可能的对应关系的 4D 空间中鉴别一组具有空间一致性的对应关系。该方法不需要全局几何模型,只需要弱监督的成对图像匹配信息进行训练。最后,该方法在类别匹配和实例级匹配任务中均取得了最优结果。
Oct, 2018
本文提出了一种深度学习框架,用于准确的视觉对应,并证明了其在几何和语义匹配中的有效性,提出了一种卷积空间变换器来模仿传统特征(如 SIFT)中的补丁归一化,广泛的 KITTI,PASCAL 和 CUB-2011 数据集的实验表明,与使用手工构建或学习特征的先前作品相比,我们的特征具有显着优势。
Jun, 2016
传统的几何注册方法只隐含地利用了 CAD 模型,这导致它们对观察质量的依赖性和遮挡缺陷。为了解决这个问题,本文提出了一种具有点对注意机制的双向对应预测网络,它不仅需要模型点预测对应关系,还明确地建模了观察和模型先验之间的几何相似性。我们的关键见解是,每个模型点与场景点之间的相关性为学习点对匹配提供了必要的信息。为了进一步解决特征分布差异带来的相关性噪声,我们设计了一个简单而有效的伪孪生网络来提高特征的一致性。在 LineMOD、YCB-Video 和 Occ-LineMOD 的公共数据集上的实验结果表明,所提出的方法在相同评价标准下取得了比其他最先进方法更好的性能。它的姿态估计的稳健性得到了极大的改善,特别是在遭受严重遮挡的环境中。
Aug, 2023
该论文研究基于 RANSAC 的两视图几何相机位姿估计问题,并提出一种名为 Fundamental Scoring Network 的新方法,它利用双视图几何模型中的极线注意力机制来预测两幅图像的位姿误差。该方法能够成功地估计出图像间的好的位姿,具有较好的性能,以及与 MAGSAC ++ 评分方法相结合的优势。
Jun, 2023
本文提出了一种深度 CNN 模型,该模型能够同时解决 6 自由度绝对摄像机姿态和 2D-3D 对应关系,通过全局特征匹配模块和分类模块实现了对无先验知识的 2D-3D 对应关系的盲目 PnP 问题的有效解决。
Mar, 2020
提出一种自我集成的有方向性网络 (称为 SE-ORNet),用于解决无监督点云形状对应的难题,能够对齐点云对的方向,有效减轻对称部分的误差预测,同时还采用了自我集成框架,通过数据增强和预测一致性的约束,克服了点云噪声的干扰,实验结果表明,该方法能够超过现有的无监督点云形状对应方法。
Apr, 2023
本文提出了一种基于卷积神经网络和不同 iable soft inlier scoring 模块的语义对齐方法,该方法无需繁琐的手工标注就能实现对不同但具有语义相关性的图像进行参数学习,并从几何上一致的对应关系计算对齐质量,达到了基于多个标准基准的语义对齐的最先进表现。
Dec, 2017
从两个或多个视图中提取场景的点对应是一个基本的计算机视觉问题,对于相对相机位姿估计和运动结构具有特殊重要性。我们通过使用对应于传递线上的假设匹配来放宽已有模型需要的先验知识约束,并提出了一种新颖的引导方法,从而无需真实的三维结构信息即可对模型进行微调,并在新数据上获得最先进的结果。
Jan, 2024
本研究介绍了一种使用自适应邻域一致性网络(ANC-Net)的卷积神经网络架构,用于解决同类别物体图像之间生成密集视觉对应的任务。该方法通过非各向同性的四维卷积核,多尺度自相似性模块和正交损失来实现稠密匹配,并在各种基准测试中优于现有的最先进方法。
Mar, 2020