无监督目标定位:观察背景发现物体
该研究探讨了利用空间上下文作为丰富的视觉表征的监督信号的方法。通过从每个图像中提取随机配对的路径来训练卷积神经网络,用于预测第二个路径相对于第一个路径的位置,从而实现对目标的识别,并证明该方法在性能上优于其他算法。
May, 2015
本研究致力于解决视觉数据无监督学习中的目标检测问题,使用包含深度神经网络的学生路径来训练模型,该模型可以在测试时明显优于无监督视频发现教师,并在 YouTube 视频数据集和目标发现数据集等基准测试中取得了最先进的结果,测试时比其他方法至少快两个数量级。
Mar, 2017
该论文提出了一个基于无监督学习的物体发现方法,其中包括了基于显著性的边界提取算法以及采用层次结构与两阶段策略提高发现效率。通过使用小型随机图片集和整个图片集合,该方法能够发现每张图片中的多个目标,实现了对面向真实大规模图像数据集的无监督图像解释的重要的一步。
Jul, 2020
本文旨在通过采用对比优化目标中的预定中级先验,引入了一个两步框架来学习像素嵌入,从而解决了计算机视觉中的无监督语义表示学习问题,并证明此方法优于现有方法。
Feb, 2021
本研究提出了一种非监督学习方法来发现和分割物体部分,通过像素级别的图像重建配合先前任务的代理目标,得到了一种更有意义的部分分解方法,优于现有的三个基准数据集,提供了一种一致的、可视化的物体语义部分表示。
Nov, 2021
本文介绍了以往自我监督的学习方式大多聚焦于图像级的表示学习,不能为无监督图像分割等需要空间多样的表示的任务带来改进,通过自我监督学习物体部件提出了新的解决途径,并结合目前趋势的Vision Transformer,利用稠密聚类任务进行空间标记的微调,取得了在语义分割基准测试上超过17%-3%的最先进结果,且在完全无监督分割方面也具有重大潜力。
Apr, 2022
最近对开放式视觉系统的热情表明了社区在封闭词汇基准设置之外进行感知任务的高度兴趣。在不事先知道数据集中包含哪些对象的情况下,能够在图像/视频中发现对象是一个令人兴奋的前景。最近的研究表明,通过利用自我监督预训练特征,可以进行无类别无监督的对象定位。在自我监督ViT的时代,我们在此提出一种调查无监督对象定位方法,其能够在图像中发现对象而无需任何手动注释。我们在以下链接中汇总了所讨论方法的资源库:this https URL
Oct, 2023
我们提出了一种通过无监督/自监督学习训练单阶段目标检测器的创新方法,该方法有潜力彻底改变标注过程,大大减少人工标注所需的时间和成本,并为之前难以实现的研究机会铺平了道路。与现有的主要针对分类任务的无监督学习方法不同,我们的方法承担了目标检测的独特挑战,开创了 intra-image 对比学习与 inter-image 对应的概念,能够获取目标检测所需的重要位置信息。该方法熟练地学习和表示这些位置信息,并生成信息丰富的热图。我们的结果展示了89.2%的卓越准确率,在计算机视觉领域的无监督目标检测领域突破性地提高了15倍,相比随机初始化。
Feb, 2024
本研究解决了无监督物体发现领域缺乏综合性研究的问题,系统地探讨了现有方法并基于任务和技术分类进行了整理。通过提供常见数据集和评价指标的概述,强调了不同评估协议带来的比较挑战,从而为从业者提供深入见解,期望激发新的思路并加深对物体发现方法的理解。
Oct, 2024