LSTD: 一种用于目标检测的低样本迁移检测器
本研究提出了一种名为 DSOD 的新型深度监督目标检测器,通过设计一组原则以及采用密集的层内连接等手段使目标检测器可以从零开始训练,并在 PASCAL VOC 2007,2012 和 MS COCO 等数据集上完美取代了现有的模型。
Aug, 2017
本论文提出了一种基于注意机制和卷积长短时记忆(ConvLSTM)的时序单次检测器(TSSD),以实现视频中的实时在线目标检测。采用 ConvLSTM 来集成时间金字塔特征层次,并使用一个低级时序单元和一个高级单元来设计新颖的结构(LH-TU)进行多尺度特征图。关注 ConvLSTM(AC-LSTM)的创新时间分析单元被设计为时间上的背景抑制和尺度抑制,并跨时间集成具有关注注意力的特征。此外,针对时间一致性设计了联合损失和多步训练。最后,利用在线管道分析(OTA)进行识别。评估结果证明,该方法在检测和跟踪性能方面具有优势。
Mar, 2018
针对少样本目标检测的问题,我们提出了一种基于 Context-Transformer 的深度迁移学习方法,该方法可以巧妙地利用源域目标知识,从少量样本中自动利用上下文信息以提高检测器的区分能力,并在 popular SSD-style 检测器中灵活嵌入,从而成为端到端少样本学习的即插即用模块。实验结果表明,我们的框架优于最新的 state-of-the-art 方法。
Mar, 2020
本文介绍了一种利用稀疏上下文变换器(SCT)的新方法,在目标域仅有少量训练图像的情况下,有效地利用源域的物体知识,并自动从目标域中学习稀疏上下文,通过结合不同相关线索来增强学习检测器的区分能力并降低类别混淆。两个具有挑战性的少样本目标检测基准测试结果表明,该方法与相关最新技术相比具有竞争性能。
Feb, 2024
提出了一种基于自我训练的少样本目标检测 (ST-FSOD) 方法,通过引入自我训练机制和学生 - 教师机制,在少样本细调过程中发现未标注的新对象,并在训练过程中考虑它们。实验结果表明,该方法在各种少样本目标检测设置中优于现有技术。
Sep, 2023
本文提出了一种名为 LEAST 的新的模型转移方法,通过减少权重适应、知识蒸馏和基于聚类的样本选择等步骤,实现了在小样本量下增量式学习的目标检测问题中的高效性能。
May, 2021
提出了一种基于可学习的空间 - 时间采样 (LSTS) 模块、分散递归特征更新 (SRFU) 和密集特征聚合 (DFA) 模块,实现了视频目标检测中的准确空间对应关系,增强特征更新,提升检测性能,并在 ImageNet VID 数据集上取得了最先进的表现和实时速度。
Nov, 2019
为了解决现有网络对未注释区域默认为负样本的问题,引入了一种数据增广和训练方法,称为 Learning to Detect Every Thing (LDET)。在 LDET 中,实现将带注释物体贴在一张采样自原始图像局部区域的背景图像上,然后将训练过程分为两部分进行,最终在包括 COCO、UVO 和 Cityscapes 等多个数据集上获得了优异的结果。
Dec, 2021
提出 Deeply Supervised Object Detectors(DSOD)框架,实现可以从头开始训练的目标检测器。通过 Layer-wise Dense 连接在主干网和预测层之间实现深度监督,DSOD 能在 PASCAL VOC 和 COCO 数据集上取得比现有方法更好的检测结果,并使用更小的模型参数。
Sep, 2018