DetCo: 无监督对比学习物体检测
我们提出了一种通过无监督 / 自监督学习训练单阶段目标检测器的创新方法,该方法有潜力彻底改变标注过程,大大减少人工标注所需的时间和成本,并为之前难以实现的研究机会铺平了道路。与现有的主要针对分类任务的无监督学习方法不同,我们的方法承担了目标检测的独特挑战,开创了 intra-image 对比学习与 inter-image 对应的概念,能够获取目标检测所需的重要位置信息。该方法熟练地学习和表示这些位置信息,并生成信息丰富的热图。我们的结果展示了 89.2% 的卓越准确率,在计算机视觉领域的无监督目标检测领域突破性地提高了 15 倍,相比随机初始化。
Feb, 2024
使用预训练的深度神经网络在少量可用数据中实现强大结果,针对密集问题如物体检测,学习图像中的局部信息而非全局信息被证明更有效。为了解决这个问题,我们对最近在社区中表现良好且具有生成多样化目标提案特性的基于 Transformer 的物体检测器感兴趣,在此工作中,我们提出了一种利用该特性的新型无监督整体预训练方法 ProSeCo,使用检测器生成的大量目标提案进行对比学习,从而允许使用较小的批量大小,并结合物体级特征学习图像中的局部信息。为了改善对比损失的有效性,在选择正样本时引入物体位置信息以考虑多个重叠的目标提案。当重用预训练的骨干网络时,我们主张在骨干网络和检测头之间一致学习局部信息。我们证明了我们的方法在使用较少数据进行物体检测的无监督预训练中优于现有方法,在标准和新颖的基准测试中表现出色。
Oct, 2023
本文介绍了一种基于像素的密集自监督学习方法,通过考虑局部特征之间的对应关系,实现了对密集预测任务的有效优化,包括物体检测,语义分割和实例分割。与基线方法 MoCo-v2 相比,该方法仅引入了微不足道的计算开销,但表现出了更好的性能。
Nov, 2020
本文提出了一种新的自监督学习方法 ——CoDo。它基于对下游数据集中不同背景的实例建模为主要任务,并通过层次化多视图对比学习来提高视觉表征学习性能,即可用于物体检测任务的强迁移学习.
May, 2022
通过选择性搜索提出边界框,引入物体层次表征,结合 FPN 等所需模块的预训练神经网络,并配备物体检测属性,该文提出的选择性物体对比学习(SoCo)方法在物体检测领域取得了最先进的转移学习结果。
Jun, 2021
利用共现对象发现的方法,CoDet 克服了对预对齐视觉 - 语言空间依赖的限制,通过图像标题中提及共享概念的图像分组,发现并与共享概念对齐共现对象,从而实现了对象级别的视觉 - 语言表示,具有卓越的性能和可扩展性。
Oct, 2023
基于自主车辆的关键挑战是准确检测环境中的物体。我们引入 PatchContrast,这是一个创新的自我监督点云预训练框架,用于 3D 物体检测。通过提出两个抽象层次的利用,我们学习未标记数据的判别性表示:提案级别和补丁级别。提案级别旨在确定物体相对于周围环境的位置,而补丁级别增加了关于物体组件之间内部连接的信息,从而根据它们的独立组件区分不同的对象。我们展示了如何将这些级别集成到自我监督预训练中以增强下游的 3D 检测任务,并证明我们的方法在三个常用的 3D 检测数据集上优于现有的最先进模型。
Aug, 2023
引入对比检测算法的自监督目标,通过在图像增强中识别物体水平特征提取富有学习信息的信号,实现高效的自监督预训练,拥有多种下游任务的领先转移精度。在 ImageNet 预训练模型表现与大型自监督系统 SEER 相当的同时,需要少至 10 倍的预训练数据量,最终该目标还能轻松应对更复杂的图像。
Mar, 2021
我们的论文介绍了一种新颖的两阶段自监督方法,用于在图像组中检测共现显著对象(CoSOD),不需要分割注释。我们的轻量级模型利用了补丁和区域级别上的特征对应,显著提高了预测性能。我们的自监督模型在三个 CoSOD 基准数据集上进行了大量实验证明,性能明显优于现有最先进模型。
Mar, 2024
本研究通过引入 DETReg,一种新的自监督方法,对整个目标检测网络进行预训练,包括目标定位和嵌入组件,取得了在 COCO 等低数据环境中许多最先进结果的 + 6.0 AP 改进的成果。
Jun, 2021