本文探讨了通过利用视觉移动的感知能力作为特征学习的监督信号,相对于传统对数标签的监督,大多数视觉任务的特征学习中更好的表现。
May, 2015
提出了一种新颖的无监督学习深度和自我运动的方法,它主要基于对场景的推断 3D 几何形状进行对齐,并与基于光度学营养和有效性掩模的 2D 损失相结合,最终得出在 KITTI 数据集上的优越结果。
Feb, 2018
本文提出了两个改进方法,以提高深度估计和 ego-motion 估计的性能:使用 Lie group 属性强制实现图像之间的几何一致性,实现了一种关注机制,以便在存在图像重建损坏的情况下关注感兴趣的图像区域。在 KITTI 数据集上的实验结果表明,我们的方法改进了 state-of-the-art 的性能。
Apr, 2020
本文提出了一种无监督学习框架,通过使用视图合成作为监督信号,同时训练深度和相机位姿估计网络以完成从非结构化视频序列中的单目深度和相机运动估计的任务。经验评估表明,我们的方法具备与基于监督方法使用地面真值位姿或深度进行训练的方法相当的单目深度估计能力,并且在相似的输入设置下,姿态估计表现良好。
Apr, 2017
使用自监督学习来学习套接在 AR/VR 设备上内嵌的 IMU 传感器捕捉的人类和狗的视角视频获得的头部运动,以识别自传活动。
Oct, 2021
本研究使用玩具箱数据集和计算机视觉框架进行自我监督对比学习实验,发现通过学习信号,将单个物体的不同视角赋予相似的表示有助于视觉学习的稳健性,这种性能的提高对于多种图像分类任务来说是可持续的。
May, 2023
本文介绍了一种基于无监督学习的视觉特征提取方法,采用运动分割技术自动从视频中得到图像分割信息进行卷积神经网络训练,结果在涉及少量目标训练样本的场景下显著优于现有无监督学习方法。
Dec, 2016
本文介绍了一种基于几何一致性损失和自发现遮罩的深度估计和自我运动估计模型,模型能够处理运动物体和目标的遮挡问题并保证不同样本间的比例一致性。从实验结果来看,我们提出的深度估计模型在 KITTI 数据集上性能最好,并且我们提出的自动驾驶路线规划模型相对于之前的模型在预测全局一致的相机轨迹上有着很大的优势。
Aug, 2019
本研究介绍了一种从未标记的视频中进行无监督学习的新方法,通过引入一种面向物体的时间相干性方法来促进学习具有相似表征的物体,并在多个基准数据集上展示了与竞争无监督方法相比显著的准确度提高。
提出了一个以变换的群属性为基础的运动模型,使用它训练了一个图像运动的表示方法。使用此方法训练的深度神经网络对合成的 2D 序列和真实世界的车辆运动序列都捕捉到了运动特征;在车辆运动的背景下,此方法提取了用于定位、跟踪和测距的信息。这一表示方法在很难获取明确标签的情况下学习运动非常有用。