UP-DETR:基于 Transformer 的无监督预训练物体检测
该研究提出了一种新方法,将目标检测作为直接集合预测问题进行处理,主要采用基于集合的全局损失和 Transformer 编码器 - 解码器架构构建 DETR 模型,能够高效地完成目标检测和全景分割任务,相较于许多现代检测器,DETR 模型概念简单且不需要专门的库。
May, 2020
基于 Transformer 的目标检测器 (DETR) 在机器视觉任务中表现出显著性能,但其在处理遮挡和对抗扰动等不同图像干扰方面存在问题。我们通过多种实验和将 DETR 与基于卷积神经网络 (CNN) 的检测器(如 YOLO 和 Faster-RCNN)进行基准测试来研究这个问题。我们发现 DETR 在处理遮挡图像的信息丢失干扰方面表现良好。然而,在涂有对抗标记的图像上,网络需要产生一组新的不必要的键、查询和值,导致网络方向错误。与图像损坏基准测试中 YOLOv5 相比,DETR 的性能也较差。此外,我们发现 DETR 在进行预测时严重依赖于主要查询,导致查询之间的贡献不平衡,因为主要查询接收大部分梯度流。
Oct, 2023
使用 DETR 为基础的目标检测器,通过无监督预训练和利用大量未标记数据来提高检测器的性能,采用更丰富、基于语义的初始提议、基于聚类的物体伪标签的判别性训练以及自我训练等三个关键因素,显著提升了 DETR 在完整和低数据情况下的性能,并且证明能够在复杂图像数据集上从头开始预训练,直接实现无监督表示学习。
Jul, 2023
通过对最新的自我监督训练方法进行实验,发现之前的代表性自我监督方法无法提升强 DET-based 方法在完整数据范围上的性能,但通过结合更准确的盒子预测器和 Objects365 基准可以显著提高后续实验的结果,在 COCO 验证集上实现了 AP=59.3% 的强大目标检测结果,超过了 H-Deformable-DETR + Swin-L 的 1.4%;此外,通过合成的预训练数据集(LLaVA 和 SDXL 的组合)进行预训练,可以显著提高目标检测性能,并且在未来扩展合成预训练数据集方面有巨大优势。
Aug, 2023
本篇论文详细回顾了二十一篇相关的论文,讨论了最近在 DETR 中基于 Transformer 方法的研究进展,并涵盖了最新的改进,包括骨干网络改造,查询设计和注意力优化。同时,我们还比较了所有检测变压器的性能和网络设计。
Jun, 2023
本文提出基于 Transformer 的新方法 O²DETR,实现了复杂的有方向物体检测,无需旋转锚点,其性能表现明显优于 Faster R-CNN 和 RetinaNet。
Jun, 2021
Deformable DETR 提出了一种改进的 Transformer 注意力模块,只关注于围绕参考点的一小集采样点,能够更好地实现物体检测,尤其是在小物体上,并在 COCO 基准测试上得到了有效的实验结果。
Oct, 2020
本研究针对小物体检测中 RT-DETR 模型的准确性不足提出了两个关键改进:首先,引入细粒度路径增强方法以提供更多详细信息来精确定位小物体;其次,采用自适应特征融合算法来有效整合不同尺度的特征信息,从而提高模型对不同尺度目标的检测准确率。
Jan, 2024
本研究探讨了使用 DEtection TRansformer(DETR)检测医学成像中可疑区域的可行性,研究表明这种方法能够与甚至优于当前方法进行匹配,且无需依赖锚点或手动启发式设计等方式来检测对象。
Jun, 2023
研究使用自监督学习中的图像重构、遮蔽图像建模和拼图等方法来训练物体检测转换器的编码器,以实现预训练和多任务学习,并在 iSAID 数据集上进行了初步实验。
May, 2022