通过局部-全局对比学习改善物体检测
DetCo是一种创新的对比学习方法,通过充分探索全局图像和局部图像补丁之间的对比,学习有助于目标检测的判别性表示,实验表明其不仅在目标检测方面优于现有方法,在分割,姿态估计和三维形状预测方面也显著优于监督方法。
Feb, 2021
通过选择性搜索提出边界框,引入物体层次表征,结合FPN等所需模块的预训练神经网络,并配备物体检测属性,该文提出的选择性物体对比学习(SoCo)方法在物体检测领域取得了最先进的转移学习结果。
Jun, 2021
介绍了基于自监督学习的点级区域对比法,该方法用于目标检测预训练,提高了模型在像素或点级别的定位和物体区域整体性识别的表现,通过直接从不同区域中采样个体点对执行对比学习,增强了模型对输入区域质量变化的鲁棒性,同时通过在线知识蒸馏隐式地提高了初始区域分配的质量。在多个任务和数据集上的实验表明,这种方法提高了目标检测和分割的预训练方法的性能。
Feb, 2022
本研究提出了一种适用于目标检测的新型统一自适应框架,可以在线适应和改进目标领域的泛化能力,并使用MemXformer作为记忆模块和对比损失来增强目标特定的表示学习。
Apr, 2022
为了增强对外域物体的检测鲁棒性,我们对对比学习进行了实证研究,并提出了加强鲁棒性的策略,包括改变裁剪百分比、添加 IoU 约束、整合显著性的对象先验,并探索了缩短路径的数据增强方法。在多个领域的基础上进行基准测试,整合多种策略,实验结果表明了如何通过选择视图提高对比学习的鲁棒性。
Dec, 2022
本文提出了一种统一的、通用的框架——CMT,将 mean-teacher 自训练和对比学习这两种范式自然地集成在一起,通过伪标签进行特征抽取和优化,从而稳定提高了目标域上的性能,取得了新的最优表现。
May, 2023
我们提出了一种通过无监督/自监督学习训练单阶段目标检测器的创新方法,该方法有潜力彻底改变标注过程,大大减少人工标注所需的时间和成本,并为之前难以实现的研究机会铺平了道路。与现有的主要针对分类任务的无监督学习方法不同,我们的方法承担了目标检测的独特挑战,开创了 intra-image 对比学习与 inter-image 对应的概念,能够获取目标检测所需的重要位置信息。该方法熟练地学习和表示这些位置信息,并生成信息丰富的热图。我们的结果展示了89.2%的卓越准确率,在计算机视觉领域的无监督目标检测领域突破性地提高了15倍,相比随机初始化。
Feb, 2024
该论文研究领域自适应的目标检测,提出了几种简化的方法来替代复杂的方法,同时通过批量标准化层和伪标签的训练等方式,实现了与以往方法相媲美的性能。
Jul, 2024
本研究旨在学习可见光图像与红外图像之间的翻译,以缩小两种模态之间的域间差距,从而提高目标检测等下游任务的准确性。论文提出了一种基于生成对抗网络和目标检测模型的两阶段训练策略,实现了在保持可见光图像结构细节的同时保留红外图像纹理的转换,凭借这一方法,我们在模型准确性上获得了高达5.3%的mAP提升。
Aug, 2024
本研究解决了现有注意力机制在对象检测中局部与全局特征平衡不足的问题,影响了细节和背景信息的捕捉。提出的新型局部-全局注意力机制结合了多尺度卷积与位置编码,不仅关注局部细节,也兼顾全局上下文,通过可学习的参数动态调整局部与全局注意力的重要性,显著提升了不同尺度对象的检测能力,尤其在多类和小物体检测任务中表现优异。
Nov, 2024