利用物体级对比学习来调整预训练以进行检测
使用随机初始化的标准模型,在 COCO 数据集上进行的目标检测和实例分割,结果不劣于它们的 ImageNet 预训练模型,证明预训练模型并不一定能提高模型最终的准确性。
Nov, 2018
引入对比检测算法的自监督目标,通过在图像增强中识别物体水平特征提取富有学习信息的信号,实现高效的自监督预训练,拥有多种下游任务的领先转移精度。在 ImageNet 预训练模型表现与大型自监督系统 SEER 相当的同时,需要少至 10 倍的预训练数据量,最终该目标还能轻松应对更复杂的图像。
Mar, 2021
介绍了基于自监督学习的点级区域对比法,该方法用于目标检测预训练,提高了模型在像素或点级别的定位和物体区域整体性识别的表现,通过直接从不同区域中采样个体点对执行对比学习,增强了模型对输入区域质量变化的鲁棒性,同时通过在线知识蒸馏隐式地提高了初始区域分配的质量。在多个任务和数据集上的实验表明,这种方法提高了目标检测和分割的预训练方法的性能。
Feb, 2022
本文提出了一种新的自监督学习方法——CoDo。它基于对下游数据集中不同背景的实例建模为主要任务,并通过层次化多视图对比学习来提高视觉表征学习性能,即可用于物体检测任务的强迁移学习.
May, 2022
为了增强对外域物体的检测鲁棒性,我们对对比学习进行了实证研究,并提出了加强鲁棒性的策略,包括改变裁剪百分比、添加 IoU 约束、整合显著性的对象先验,并探索了缩短路径的数据增强方法。在多个领域的基础上进行基准测试,整合多种策略,实验结果表明了如何通过选择视图提高对比学习的鲁棒性。
Dec, 2022
通过解决数据、模型和任务之间的差异,AlignDet提出了一种统一预训练框架,可以适应各种现有的检测器,提高检测器的性能、泛化能力和收敛速度。
Jul, 2023
使用预训练的深度神经网络在少量可用数据中实现强大结果,针对密集问题如物体检测,学习图像中的局部信息而非全局信息被证明更有效。为了解决这个问题,我们对最近在社区中表现良好且具有生成多样化目标提案特性的基于Transformer的物体检测器感兴趣,在此工作中,我们提出了一种利用该特性的新型无监督整体预训练方法ProSeCo,使用检测器生成的大量目标提案进行对比学习,从而允许使用较小的批量大小,并结合物体级特征学习图像中的局部信息。为了改善对比损失的有效性,在选择正样本时引入物体位置信息以考虑多个重叠的目标提案。当重用预训练的骨干网络时,我们主张在骨干网络和检测头之间一致学习局部信息。我们证明了我们的方法在使用较少数据进行物体检测的无监督预训练中优于现有方法,在标准和新颖的基准测试中表现出色。
Oct, 2023
我们提出了一种通过无监督/自监督学习训练单阶段目标检测器的创新方法,该方法有潜力彻底改变标注过程,大大减少人工标注所需的时间和成本,并为之前难以实现的研究机会铺平了道路。与现有的主要针对分类任务的无监督学习方法不同,我们的方法承担了目标检测的独特挑战,开创了 intra-image 对比学习与 inter-image 对应的概念,能够获取目标检测所需的重要位置信息。该方法熟练地学习和表示这些位置信息,并生成信息丰富的热图。我们的结果展示了89.2%的卓越准确率,在计算机视觉领域的无监督目标检测领域突破性地提高了15倍,相比随机初始化。
Feb, 2024
本研究解决了视觉领域差异对物体检测性能的影响问题,提出了一种新的图像到图像的翻译方法,通过对比学习框架优化物体实例的外观,同时显著减少对昂贵物体注释的依赖。实验结果表明,所提出的方法在多个跨域物体检测设置中表现出最先进的性能,具有重要的研究价值。
Oct, 2024