detrex: 基于检测变换器的基准测试
该研究提出了一种新方法,将目标检测作为直接集合预测问题进行处理,主要采用基于集合的全局损失和 Transformer 编码器 - 解码器架构构建 DETR 模型,能够高效地完成目标检测和全景分割任务,相较于许多现代检测器,DETR 模型概念简单且不需要专门的库。
May, 2020
Deformable DETR 提出了一种改进的 Transformer 注意力模块,只关注于围绕参考点的一小集采样点,能够更好地实现物体检测,尤其是在小物体上,并在 COCO 基准测试上得到了有效的实验结果。
Oct, 2020
通过引入实例级对比损失、修订的采样策略和轻量级分配方法,我们展示了如何将 DETR 转化为 MOT 模型,学习目标的外观并保留检测能力,其性能在具有挑战性的 BDD100K 数据集上超过了先前的最新技术水平 2.6 mMOTA,并在 MOT17 数据集上与现有的基于 transformer 的方法相媲美。
Nov, 2023
本篇论文详细回顾了二十一篇相关的论文,讨论了最近在 DETR 中基于 Transformer 方法的研究进展,并涵盖了最新的改进,包括骨干网络改造,查询设计和注意力优化。同时,我们还比较了所有检测变压器的性能和网络设计。
Jun, 2023
本研究探讨了使用 DEtection TRansformer(DETR)检测医学成像中可疑区域的可行性,研究表明这种方法能够与甚至优于当前方法进行匹配,且无需依赖锚点或手动启发式设计等方式来检测对象。
Jun, 2023
基于 Transformer 的目标检测器 (DETR) 在机器视觉任务中表现出显著性能,但其在处理遮挡和对抗扰动等不同图像干扰方面存在问题。我们通过多种实验和将 DETR 与基于卷积神经网络 (CNN) 的检测器(如 YOLO 和 Faster-RCNN)进行基准测试来研究这个问题。我们发现 DETR 在处理遮挡图像的信息丢失干扰方面表现良好。然而,在涂有对抗标记的图像上,网络需要产生一组新的不必要的键、查询和值,导致网络方向错误。与图像损坏基准测试中 YOLOv5 相比,DETR 的性能也较差。此外,我们发现 DETR 在进行预测时严重依赖于主要查询,导致查询之间的贡献不平衡,因为主要查询接收大部分梯度流。
Oct, 2023
引入一种基于等级的 DETR 目标检测器 Rank-DETR,通过一系列等级化设计,包括等级化架构设计和损失函数设计,提高了准确性和定位精度,并成功应用于最新的 SOTA 方法,展示了其有效性。
Oct, 2023
本文提出基于 Transformer 的新方法 O²DETR,实现了复杂的有方向物体检测,无需旋转锚点,其性能表现明显优于 Faster R-CNN 和 RetinaNet。
Jun, 2021
通过对最新的自我监督训练方法进行实验,发现之前的代表性自我监督方法无法提升强 DET-based 方法在完整数据范围上的性能,但通过结合更准确的盒子预测器和 Objects365 基准可以显著提高后续实验的结果,在 COCO 验证集上实现了 AP=59.3% 的强大目标检测结果,超过了 H-Deformable-DETR + Swin-L 的 1.4%;此外,通过合成的预训练数据集(LLaVA 和 SDXL 的组合)进行预训练,可以显著提高目标检测性能,并且在未来扩展合成预训练数据集方面有巨大优势。
Aug, 2023
3DETR 是一种基于 Transformer 的端到端目标检测模型,适用于 3D 点云,相较于现有的检测方法,它需要最少的修改,可以通过将 3D 领域知识整合进去得到进一步的改进,在 ScanNetV2 数据集上,相比于 VoteNet 基线具有 9.5% 更好的性能,并且适用于其他 3D 任务。
Sep, 2021