基于 Transformer 的目标检测
利用旋转敏感形变注意力来增强 DETR 在面向检测任务中对旋转目标的检测能力,进而提出了旋转物体检测 Transformer(RotaTR)作为 DETR 的扩展模型,相比原始 DETR,在检测密集和旋转对象方面显示出巨大优势,并与现有最先进的模型相比取得了竞争性的结果。
Dec, 2023
文章提出了一种基于 Transformer 的 AOOD 框架,称为 AO2-DETR,包括三个组件:旋转提案生成机制、适应性旋转提案细化模块和旋转感知的集合匹配损失,使得直接集合预测任务更加简化、准确。在多个数据集上的实验证明该方法在 AOOD 任务上具有卓越的性能。
May, 2022
基于 Transformer 的目标检测器 (DETR) 在机器视觉任务中表现出显著性能,但其在处理遮挡和对抗扰动等不同图像干扰方面存在问题。我们通过多种实验和将 DETR 与基于卷积神经网络 (CNN) 的检测器(如 YOLO 和 Faster-RCNN)进行基准测试来研究这个问题。我们发现 DETR 在处理遮挡图像的信息丢失干扰方面表现良好。然而,在涂有对抗标记的图像上,网络需要产生一组新的不必要的键、查询和值,导致网络方向错误。与图像损坏基准测试中 YOLOv5 相比,DETR 的性能也较差。此外,我们发现 DETR 在进行预测时严重依赖于主要查询,导致查询之间的贡献不平衡,因为主要查询接收大部分梯度流。
Oct, 2023
该研究提出了一种新方法,将目标检测作为直接集合预测问题进行处理,主要采用基于集合的全局损失和 Transformer 编码器 - 解码器架构构建 DETR 模型,能够高效地完成目标检测和全景分割任务,相较于许多现代检测器,DETR 模型概念简单且不需要专门的库。
May, 2020
本篇论文详细回顾了二十一篇相关的论文,讨论了最近在 DETR 中基于 Transformer 方法的研究进展,并涵盖了最新的改进,包括骨干网络改造,查询设计和注意力优化。同时,我们还比较了所有检测变压器的性能和网络设计。
Jun, 2023
通过引入实例级对比损失、修订的采样策略和轻量级分配方法,我们展示了如何将 DETR 转化为 MOT 模型,学习目标的外观并保留检测能力,其性能在具有挑战性的 BDD100K 数据集上超过了先前的最新技术水平 2.6 mMOTA,并在 MOT17 数据集上与现有的基于 transformer 的方法相媲美。
Nov, 2023
Deformable DETR 提出了一种改进的 Transformer 注意力模块,只关注于围绕参考点的一小集采样点,能够更好地实现物体检测,尤其是在小物体上,并在 COCO 基准测试上得到了有效的实验结果。
Oct, 2020
引入一种基于等级的 DETR 目标检测器 Rank-DETR,通过一系列等级化设计,包括等级化架构设计和损失函数设计,提高了准确性和定位精度,并成功应用于最新的 SOTA 方法,展示了其有效性。
Oct, 2023
本研究介绍了一种名为 MonoDETR 的使用深度感知 Transformer 的新型单目三维物体检测框架。通过将物体候选项表示为一组查询,并采用基于注意力的深度编码器生成二维输入图像的非局部深度嵌入,然后提出了一个深度引导的解码器,通过深度交叉关注模块对查询与场景深度特征进行交互,每个物体查询从图像的深度引导区域自适应地估计其三维属性。该系统具有端到端的结构,在 KITTI 基准测试上取得了最新成果,并在广泛的消融研究中证明了该方法的有效性,具有成为未来单目三维物体检测研究的 Transformer 基线的潜力。
Mar, 2022
本文针对 DET 向有向物体检测的扩展做出首例有力的 DINO 基线,并提出了一种用于缓解重复预测的简单成本和匈牙利匹配的新型去噪策略,该模型的性能在 DOTA-v1.0 /v1.5 /v2.0 和 DIOR-R 基准测试中均达到了最先进水平。
May, 2023