利用物体级对比学习来调整预训练以进行检测
引入对比检测算法的自监督目标,通过在图像增强中识别物体水平特征提取富有学习信息的信号,实现高效的自监督预训练,拥有多种下游任务的领先转移精度。在 ImageNet 预训练模型表现与大型自监督系统 SEER 相当的同时,需要少至 10 倍的预训练数据量,最终该目标还能轻松应对更复杂的图像。
Mar, 2021
使用预训练的深度神经网络在少量可用数据中实现强大结果,针对密集问题如物体检测,学习图像中的局部信息而非全局信息被证明更有效。为了解决这个问题,我们对最近在社区中表现良好且具有生成多样化目标提案特性的基于 Transformer 的物体检测器感兴趣,在此工作中,我们提出了一种利用该特性的新型无监督整体预训练方法 ProSeCo,使用检测器生成的大量目标提案进行对比学习,从而允许使用较小的批量大小,并结合物体级特征学习图像中的局部信息。为了改善对比损失的有效性,在选择正样本时引入物体位置信息以考虑多个重叠的目标提案。当重用预训练的骨干网络时,我们主张在骨干网络和检测头之间一致学习局部信息。我们证明了我们的方法在使用较少数据进行物体检测的无监督预训练中优于现有方法,在标准和新颖的基准测试中表现出色。
Oct, 2023
本文提出了一种新的自监督学习方法 ——CoDo。它基于对下游数据集中不同背景的实例建模为主要任务,并通过层次化多视图对比学习来提高视觉表征学习性能,即可用于物体检测任务的强迁移学习.
May, 2022
介绍了基于自监督学习的点级区域对比法,该方法用于目标检测预训练,提高了模型在像素或点级别的定位和物体区域整体性识别的表现,通过直接从不同区域中采样个体点对执行对比学习,增强了模型对输入区域质量变化的鲁棒性,同时通过在线知识蒸馏隐式地提高了初始区域分配的质量。在多个任务和数据集上的实验表明,这种方法提高了目标检测和分割的预训练方法的性能。
Feb, 2022
本研究旨在推进自主学习预训练模型专门用于物体检测。通过提出一种名为实例定位的自我监督预文本任务,该任务涉及将图像实例粘贴到背景图像的各个位置和尺度上。将包围框集成到预训练中可促进更好的任务对齐和转移学习的架构对齐。通过在边界框上应用增强方法,模型成为弱于 Imagenet 语义分类但强于图像补丁定位的更强的预训练模型,对 PASCAL VOC 和 MSCOCO 上的物体检测产生最先进的转移学习结果。
Feb, 2021
DetCo 是一种创新的对比学习方法,通过充分探索全局图像和局部图像补丁之间的对比,学习有助于目标检测的判别性表示,实验表明其不仅在目标检测方面优于现有方法,在分割,姿态估计和三维形状预测方面也显著优于监督方法。
Feb, 2021
本文介绍了一种基于像素的密集自监督学习方法,通过考虑局部特征之间的对应关系,实现了对密集预测任务的有效优化,包括物体检测,语义分割和实例分割。与基线方法 MoCo-v2 相比,该方法仅引入了微不足道的计算开销,但表现出了更好的性能。
Nov, 2020
我们提出了一种通过无监督 / 自监督学习训练单阶段目标检测器的创新方法,该方法有潜力彻底改变标注过程,大大减少人工标注所需的时间和成本,并为之前难以实现的研究机会铺平了道路。与现有的主要针对分类任务的无监督学习方法不同,我们的方法承担了目标检测的独特挑战,开创了 intra-image 对比学习与 inter-image 对应的概念,能够获取目标检测所需的重要位置信息。该方法熟练地学习和表示这些位置信息,并生成信息丰富的热图。我们的结果展示了 89.2% 的卓越准确率,在计算机视觉领域的无监督目标检测领域突破性地提高了 15 倍,相比随机初始化。
Feb, 2024
为了增强对外域物体的检测鲁棒性,我们对对比学习进行了实证研究,并提出了加强鲁棒性的策略,包括改变裁剪百分比、添加 IoU 约束、整合显著性的对象先验,并探索了缩短路径的数据增强方法。在多个领域的基础上进行基准测试,整合多种策略,实验结果表明了如何通过选择视图提高对比学习的鲁棒性。
Dec, 2022
本文将需要自我学习来改进现有模型的数据集偏差性进行了深入研究,并成功地在不同类型数据集上改善了模型,同时介绍了一种具有多尺度裁剪、强数据增强和近邻策略的改进自监督学习方法,并通过 MoCo 模型在语义分割和视频实例分割任务中实现了优秀的效果。
Jun, 2021