Universal-RCNN: 基于可迁移图形 R-CNN 的通用对象检测器
本文提出 UniDetector,一种通用的目标检测器,克服了传统检测器中人工注释、视觉信息和新类别的限制,并在 LVIS、ImageNetBoxes 和 VisualGenome 等大型数据集上表现出强大的零样本泛化能力,探讨了其对于开放世界、大词汇量数据集、高零样本泛化能力等方面的实验结果。
Mar, 2023
本文旨在提高物体检测的跨域鲁棒性,通过基于 Faster R-CNN 的两级域自适应组件来解决图像水平和实例水平的域偏移问题,实现域不变的 RPN 学习,从而提高物体检测在不同领域转移场景下的有效性。
Mar, 2018
提出了一种新颖的场景图生成模型 ——Graph R-CNN,其在检测图像中的对象和它们之间的关系方面既有效又高效。该模型包含一种关系提议网络(RePN),能够有效地处理图像中潜在关系的二次数量。同时,我们提出了一种注意力图卷积网络(aGCN),有效地捕捉对象和关系之间的上下文信息。最后,我们引入了一种比现有指标更全面、更实际的评估方法。我们使用现有指标和我们提出的评估方法评估场景图生成,获得了最先进的性能。
Aug, 2018
本文提出了一种多级对抗 Faster-RCNN(MAF)框架,用于在非受限环境中利用从具有足够标签的辅助源域训练的领域知识检测对象,其中包括多个对抗域分类器亚模块、信息不变的尺度降低模块(SRM)以及加权梯度翻转层(WGRL)等,实验结果表明,MAF 在 Cityscapes,KITTI,Sim10k 等非受限任务中的表现优于现有检测器。
Jul, 2019
基于深度卷积神经网络的物体检测系统在许多大规模物体检测基准测试中取得了显着成就,然而,这需要大量的标注边界框来进行训练。本文通过将图像级别分类器转化为物体检测器解决了此问题,并利用来自视觉和语义领域的物体相似性知识,在将分类器转换为没有边界框注释的类别时转移此信息。实验结果表明,我们提出的基于物体相似性的知识转移方法在半监督设置下实现了最先进的检测性能。
Jan, 2018
提出了一种单源域泛化的方法,通过构建结构因果模型来分析任务中的数据偏差和特征偏差,并设计了全局 - 本地转换模块和因果关注学习模块来增强算法的泛化能力。在五个场景的实验中,该方法取得了明显的改进,夜晚晴朗场景的 mAP 提高了 3.9%。
May, 2024
本文提出了一种基于知识迁移的新型目标检测算法,基于训练一个单一的多类目标检测器,可以实现在语义层次结构中的所有源类上训练。该技术可以应用于多个数据集,并且在 ILSVRC 2013 检测数据集上已经成功实现了目标检测领域的业界新纪录。
Aug, 2017
本文研究领域自适应目标检测中的区域建议网络 (RPN) 和分类器 (RPC),发现了二者在面对大型区域差异时的显著差异,通过最小最大优化及使用低置信度样本差异计算,提出了一种互相指导训练,并在多种场景下验证了其有效性的方法。
Sep, 2020
本文中,我们提出了一个统一的多粒度对齐的对象检测框架,以实现领域内不变的特征学习。我们使用来自主干网络的像素级特征图,首先开发了全尺度门控融合模块来聚合实例的判别表示,从而实现了强大的多尺度目标检测。与此同时,我们提出了多粒度鉴别器,以识别样本(即像素、实例和类别)不同粒度来自哪个领域。在不同的背骨骼架上,我们进行了广泛的实验,证明了我们的框架在锚点自由 FCOS 和锚点 Faster RCNN 检测器上的有效性。
Mar, 2022