该论文提出了一种将基于实例和空间差异的对比学习相结合的简单而有效的方法,在训练的中间层次中表示对象明显地预测对象地标,通过空间对比学习进一步提高匹配和少量样本标志物回归任务的性能。该方法优于现有同类方法,并在标志物学习的标准基准测试以及该论文提出的新挑战上得到了验证。
Jun, 2020
本文研究了关键点检测中使用的无监督学习方法,重点介绍了其不能生成等变中间卷积特征的问题,并提出了一种两步无监督方法,该方法通过首先学习强大的基于像素的特征,然后使用预训练的特征来通过传统的等变性方法学习关键点检测器。在多个挑战性的标志性检测数据集上实现了最先进的结果,例如 BBC Pose 数据集和 Cat-Head 数据集,并在一系列基准测试中表现出色。
Apr, 2021
本文介绍了一种使用深度学习模式进行三维形状描述子学习的方法,在未定向输入数据的情况下创建坚固有力的旋转等变表示,并在测试时定义一个良好的规范方向。
Sep, 2019
本文介绍了一种 LEAD 方法,用于从未注释的类别特定图像集合中发现地标。通过采用两阶段训练方法,该方法增强了自监督学习中密集等变表示的学习,并在极度有限的注释数下提高了地标检测的性能,同时提高了跨尺度变化的泛化能力。
Apr, 2022
本文提出了一种基于视点分解的新方法,可以从视觉测量中提取抽象模型和目标类别的密集物体中心坐标系,并配有密集等变标记神经网络,可以将图像像素映射到对应的目标坐标系,这种方法可以适用于肢体简单目标和人脸等可变形物体,而不需要手动监督。
Jun, 2017
本文提出了一种使用旋转卷积神经网络的自监督学习框架,通过生成的图像对和直方图来训练密集方向对准损失,从而学习检测具有鲁棒性的定向关键点,并在图像匹配和相机姿态估计基准测试中表现出优异的性能。
本实验引入自监督学习框架,使用群等变 CNN 提取旋转不变的局部特征,通过群对齐技术实现旋转不变性,并通过对比描述符损失和方向对齐损失训练来得到具有鲁棒性的局部特征描述符,表现出在不同环境下的高精度匹配结果,并在关键点匹配和相机姿态估计任务中显示出有竞争力的结果。
Mar, 2023
基于空间和时间增强的等变学习框架,通过鼓励平移、缩放、翻转、旋转和场景流的等变性,提高了三维物体检测的性能。
Apr, 2024
本文提出了第一个完全通用的局部协变特征检测器学习方法,将检测视为回归问题,使用深度神经网络等强大的回归器,提出了一个可以用于自动学习提供局部特征检测稳定锚点的协方差约束,并在标准特征基准测试中展示了平移和旋转协变检测器的实证结果。
May, 2016
本文介绍了一种使用数据增强和正交视角投影学习不变性描述符的新框架,通过旋转保角本质的数据增强学习旋转不变性的本地描述符,并通过一种对特征匹配方法进行改进的技术以及新的自定义数据集进行了验证,在包括姿势估计和视觉位置识别等关键任务上提供了实用性能量的性能表现。
Mar, 2021