EdaDet: 使用早期密集对齐的开放性词汇目标检测
本文提出了一种称为开放词汇物体检测的新型物体检测问题,利用有限数量的物体分类边界框注释和图像-标题对来训练物体检测器,可以在更低的成本下覆盖更广泛的物体范围,成功地解决了物体检测中监督要求高的问题,并且更具实用性和效率,可以检测和定位那些未在训练过程中提供边界框注释的物体,无监督和零样本方法都无法做到如此高的准确性。
Nov, 2020
本文提出了一种基于CLIP模型和图像水平监督的对象中心对齐的方法,运用伪标注实现高质量对象提议并在训练过程中扩展词汇表,通过新的权重传递函数将两种对象对齐策略结合,实现了在OVD方案中对象和图像中心表示的最小化差距。在COCO数据集上,我们的方法在新颖类别上取得了36.6的AP50表现,绝对值超过了以前的最佳性能。对于LVIS,我们在罕见类别上超越了最新的ViLD模型达5.0的掩膜AP,总体提高3.4。
Jul, 2022
提出了一种使用自然语言监督学习从配对的图像文本数据中直接学习的新型开放词汇目标检测框架,通过将对象-语言对齐形式化为一个图像区域特征集合和一个词向量集合之间的集合匹配问题,可以更简单和有效地在图像-文本对上训练开放词汇对象探测器,并在两个基准数据集上进行了广泛的实验,在LVIS等新类别上实现了32.0%的mAP和21.7%的掩膜mAP等卓越性能。
Nov, 2022
提出了一种区域感知的开放词汇视觉Transformer(RO-ViT)预训练方法,其中使用区域级别的位置嵌入来代替整个图像位置嵌入,取得了在LVIS和COCO开放词汇检测基准测试的最佳效果。
May, 2023
本文提出了一个具有部分分割能力的检测器,可以通过多粒度对齐来预测开放词汇的物体和它们的部件分割,并通过密集语义对应将新物体解析为其部件。该方法在不同数据集上的实验表现优于基线方法,并且具有更好的数据通用性。
May, 2023
本文旨在进行无遮挡多类目标检测的研究,探索使用语言描述、图像样例或两者的组合来指定新颖类别的三种方式,研究者通过采用大型语言模型来生成信息化的语言描述,基于图像样例提供了视觉聚合器,并提出了将语言描述和图像样例信息融合的多模态分类器方法。实验表明,本文提出的基于文本的分类器优于之前OVOD方案,基于视觉的分类器表现与文本分类器表现相当,而使用多模态分类器比任一模态更好。
Jun, 2023
基于检测导向的图像-文本预训练的新的开放词汇检测方法用于填补图像级预训练和开放词汇对象检测之间的差距,通过使探测器头从嘈杂的图像-文本对中学习,我们的方法能够利用对比损失学习到新出现的对象-语义线索,在LVIS和COCO基准测试中均获得了非常有竞争力的结果,并在转移检测设置中显著优于基线。
Sep, 2023
利用共现对象发现的方法,CoDet克服了对预对齐视觉-语言空间依赖的限制,通过图像标题中提及共享概念的图像分组,发现并与共享概念对齐共现对象,从而实现了对象级别的视觉-语言表示,具有卓越的性能和可扩展性。
Oct, 2023
生成式开放式物体检测是一种更通用、实用的问题,本论文提出了一个名为GenerateU的简单框架,将物体检测作为一个生成问题,可以以自由形式检测密集物体并生成它们的名称,通过广泛的实验验证了GenerateU的强大的零样本检测性能。
Mar, 2024
提出了一种邻近区域注意力对齐的方法,通过在一组邻近区域的注意力机制内进行对齐来提升开放词汇推理,进而协助检测器和预训练视觉语言模型之间的对齐,在开放词汇基准测试中展现出优秀的性能。
May, 2024