自监督几何感知
该研究提出了使用深度学习的CNN网络以及不同层次的特征图来进行几何匹配的任务,并相较于先前的手动特征点描述方法,展示了更佳的匹配结果。
Mar, 2018
本文介绍了自监督学习在减少人工标注数据用于训练深度神经网络方面的应用,并指出了该方法对于几何定向任务,如语义匹配和部件检测的可扩展性,同时展示了自监督预训练网络在学习语义对象部件方面相较于其它预训练选项所需较少的监督,并且这种预训练对于语义对象匹配非常优秀。
Apr, 2018
介绍了第一种完全无监督的对变形三维图形进行对应学习的方法,通过理解自然变形的形态变化近似保持曲面的度量结构,提出了一种驱动学习过程的自然准则,从而克服了对带注释数据的需求,并取而代之的是一种纯几何标准,学习模型不分含义类别,能够利用任何类型的可变形几何数据进行训练,相对于现有的专门针对训练期间观察到的类别的监督方法,我们展示出更强的泛化能力和应用于各种具有挑战性设置的能力,在广泛的对应基准测试中展示了我们的方法,在精度、泛化能力和效率方面均超过了其他方法。
Dec, 2018
GLNet是一种自监督框架,可从单目视频中学习深度估计、光流、相机姿态和内在参数,包括设计考虑多种几何约束及自适应光度损失的新型损失函数、扩展模型以预测相机内参、提出几种在线细化策略。在KITTI和Cityscapes数据集上,GLNet优于以前的自监督方法,并且在YouTube视频中表现良好。
Jul, 2019
本文介绍了一种基于相对相机位姿的学习框架,采用新的损失函数和模型架构,可以弱监督学习特征描述符,从而避免了精确的像素级匹配,为更大更多样化的数据集训练描述符提供了可能。通过该框架训练的 CAmera Pose Supervised 描述符甚至优于过去的有监督描述符,实现了多种几何任务的最先进性能。
Apr, 2020
该研究提出了第一个通用且可扩展的框架,用于设计可靠的几何感知算法,以在存在异常值的情况下证明其准确性,并在六个几何感知问题上进行了评估。
Sep, 2021
提出了一种无匹配点的概率公式,可以同时优化视觉对应和几何对齐步骤,能够更优雅地处理几何感知场景,如纹理不清晰、对称和/或遮挡物体和场景等存在多个可能的正确姿势解决方案的情况。
Jun, 2023
通过引入一种新的自监督学习方案,我们提出了一种新的方法来训练特征对应关系,这种方法能够在任意连续的视频上进行特征对应关系的学习,而无需摄像头姿态或深度标签,从而为自监督的对应关系学习开创了一个新时代。在广泛的实验证明中,表现出较高的性能,在特征匹配和姿态估计等任务上,与现有的模型相比,精度提高了30%。
Dec, 2023
自监督表征学习在提取图像特征方面取得了近期的进展,但在面对对称性和重复部分等具有挑战性的图像特征时仍存在限制。为了解决这些限制,本文提出一种新的语义对应估计方法,将有区分度的自监督特征与三维理解相结合,通过弱几何球面先验进行补充。与更复杂的三维流程相比,我们的模型仅需要弱视点信息,我们球面表示的简单性使我们能够在训练过程中注入信息丰富的几何先验。我们提出了一个更好地考虑重复部分和对称性误差的新评估指标。我们在具有挑战性的SPair-71k数据集上呈现结果,表明我们的方法能够在许多物体类别上区分对称视图和重复部分,并且还证明我们能够推广到AwA数据集上的未见类别。
Dec, 2023