该研究提出了两种后置协方差估计方法,可以用于任何经过预训练的深度特征检测器,这些协方差可以直接与特征匹配误差相关联,从而改善下游任务,包括三角化,透视 - N 点问题和只运动捆绑调整。
May, 2023
本研究通过使用平移及旋转等变卷积神经网络来将相机运动的表示直接归纳为特征空间,从而证明了直接学习等变特征优于学习中间表示,并表明我们的轻量级模型在标准数据集上优于现有模型。
Apr, 2022
本实验引入自监督学习框架,使用群等变 CNN 提取旋转不变的局部特征,通过群对齐技术实现旋转不变性,并通过对比描述符损失和方向对齐损失训练来得到具有鲁棒性的局部特征描述符,表现出在不同环境下的高精度匹配结果,并在关键点匹配和相机姿态估计任务中显示出有竞争力的结果。
Mar, 2023
本文介绍了一种使用数据增强和正交视角投影学习不变性描述符的新框架,通过旋转保角本质的数据增强学习旋转不变性的本地描述符,并通过一种对特征匹配方法进行改进的技术以及新的自定义数据集进行了验证,在包括姿势估计和视觉位置识别等关键任务上提供了实用性能量的性能表现。
Mar, 2021
本文提出了一个新颖的具有转换不变性的特征学习框架,将线性转换纳入特征学习算法中,可应用于无监督学习方法,如自动编码器或稀疏编码,证明在 MNIST 变化,CIFAR-10 和 STL-10 等图像分类基准数据集上具有优越的分类性能并在 TIMIT 数据集上实现了最先进的电话分类任务的结果。
Jun, 2012
该研究提出了一种新的评估协议,可对大量图像上的本地特征检测器进行综合评估,使用 HPatches 数据集评估了许多本地特征检测器的视角和光照不变性检测,与以往相比,该研究的图像数量更多,结果更具鲁棒性,同时也表明传统检测器在与最近的深度学习替代方案相比时仍然具有很高的竞争力。
Jul, 2018
ASLFeat 是一种新的本地特征检测器和描述符结合的方法,使用可变形卷积网络估计本地特征点的形状,从而实现更强的几何不变性。此外,ASLFeat 使用层次结构以恢复空间分辨率和局部细节,并通过尖锐度测量来推导最有指示性的检测分数,以进一步提高检测精度和可靠性,并可在各种实际场景中获得最新的研究成果。
Mar, 2020
本研究提出了一种基于多视图三角化和非线性最小二乘的方法来优化局部图像特征的定位精度,实验证明该方法能够提高手工制作和学习的局部特征的三角化和相机定位性能。
现代计算机视觉服务经常要求用户与不受信任的服务器共享原始特征描述符,这带来隐私风险,为解决此问题,研究人员最近提出了通过将图像特征嵌入一个仿射子空间中从而使其包含原始特征及对抗特征样本来实现特征私有化。本文提出了两种新的反演攻击方法,证明从这些嵌入中可以(近似地)恢复原始图像特征,从而能够恢复敏感的图片内容。鉴于这样的成功和现有视觉隐私方法缺乏理论上的隐私保证,我们进一步提出了第一个通过局部差分隐私来实现图像特征私有化的方法,不同于先前的方法,该方法提供了一个隐私泄露的保证边界,无论攻击的强度如何。此外,我们的方法在视觉定位作为下游任务中表现出很强的性能,并享有隐私保证。
Aug, 2023
本文提出了针对弱监督本地特征学习量身定制的解耦式描述 - 检测管道,通过引入按线查找策略以明确利用相机姿态信息来学习更好的描述符,并解耦检测步骤直到学习到具有辨别能力和鲁棒性的描述符后推迟其进行,其方法名为 PoSFeat(相机姿态监督特征),广泛实验证明其优于以往的完全和弱监督方法,并在广泛的下游任务中实现了最先进的性能)。
Jan, 2022