LP-OVOD:通过线性探测的开放词汇物体检测
通过利用预训练的视觉和语言模型(如 CLIP)的零样本能力,结合伪区域标注的外部数据源,提出了一种在 CLIP 嵌入空间中通过线性混合虚拟生成接近新颖类的代理新颖类的新颖而简单的技术,该技术能够在整体新颖类分布上改进开放词汇目标检测模型的泛化能力,并在 LVIS 和 COCO 等各种开放词汇目标检测基准上表现出优越的新颖类分类性能。
Dec, 2023
本文提出了一种基于 CLIP 模型和图像水平监督的对象中心对齐的方法,运用伪标注实现高质量对象提议并在训练过程中扩展词汇表,通过新的权重传递函数将两种对象对齐策略结合,实现了在 OVD 方案中对象和图像中心表示的最小化差距。在 COCO 数据集上,我们的方法在新颖类别上取得了 36.6 的 AP50 表现,绝对值超过了以前的最佳性能。对于 LVIS,我们在罕见类别上超越了最新的 ViLD 模型达 5.0 的掩膜 AP,总体提高 3.4。
Jul, 2022
使用开放词汇的目标检测方法,通过利用预训练的视觉语言模型的零样本分类能力,直接对所有可能的新类别的建议进行分类,而不需要额外的注释或数据集。
Oct, 2023
本文提出了一种简单而有效的方法,用于直接学习任意概念的区域 - 文本对齐,从而在开放词汇目标检测方面取得有竞争力的性能和在任意概念的指称表达理解方面取得显著的改进。
Dec, 2023
开放词汇检测(OVD)是一种新的目标检测范式,旨在定位和识别由不受限词汇定义的未知对象。本文提出了三种 OVD 方法,并通过实验验证了这些方法在不同设置下的性能。其中,DRR 方法在 OVD-COCO 基准测试中取得了最佳表现,并相对于先前最先进水平获得了 2.8 的 AP$_{50}$ 绝对增益。
Sep, 2023
利用简单的图像级别分类方法(Simple Image-level Classification)结合上下文感知的检测得分(Context-Aware Detection Scoring)模块,从全局视角利用 CLIP 模型的全局知识来优化当前 OVOD 模型,以便检测小型、模糊或遮挡的新颖 / 基础类别的难以检测的目标。
Dec, 2023
研究着重探讨开放词汇对象检测 (OVOD) 中的问题,包括对新类别的检测性能不佳以及候选区域和对象分类阶段的局限性,并提出了一种后处理方案(AggDet),通过两种先进的衡量方法来调整信心分数和恢复误判的对象,并在 OV-COCO 和 OV-LVIS 基准上取得了显著的性能提升。
Apr, 2024
本研究提出一种方法,从大规模图像 - 字幕对中自动生成多样物体的伪包围框注释,以扩大训练基础类别的范围,并通过实验证明该方法在各种数据集上比最先进的开放词汇检测器有更好的检测结果。
Nov, 2021
本文旨在进行无遮挡多类目标检测的研究,探索使用语言描述、图像样例或两者的组合来指定新颖类别的三种方式,研究者通过采用大型语言模型来生成信息化的语言描述,基于图像样例提供了视觉聚合器,并提出了将语言描述和图像样例信息融合的多模态分类器方法。实验表明,本文提出的基于文本的分类器优于之前 OVOD 方案,基于视觉的分类器表现与文本分类器表现相当,而使用多模态分类器比任一模态更好。
Jun, 2023
提出了一种新颖的开放式词汇目标检测(OVD)框架,通过学习背景提示来增强检测性能,涉及背景解释、模型过拟合和检测性能等方面的问题。在 OV-COCO 和 OV-LVIS 两个基准数据集上的评估结果表明,我们提出的方法在处理 OVD 任务时优于现有的最先进方法。
Jun, 2024