通过语义对齐匹配加速 DETR 收敛
本文提出 Semantic-Aligned-Matching DETR++(SAM-DETR++)算法,通过在同一特征嵌入空间中投影对象查询和编码图像特征以便更容易地匹配具有类似语义的对象。此算法有效地融合了多尺度特征,加速了 DETR 的收敛速度并提高了检测精度,拥有成为现有 DETR 收敛解决方案完美补充的潜力。
Jul, 2022
提出基于显著点的 DETR 模型以解决传统模型中参考点集中问题,显著点作为检测器,具有更强的区分能力和更快的收敛速度,实验证明其性能优于 SOTA 方法。
Nov, 2022
本文提出了一种新颖的去噪训练方法,旨在加快 DETR 训练的速度并深入了解 DETR-like 方法的收敛速度缓慢的问题。除使用匈牙利损失外,本文的方法还使用含噪声的 ground-truth 边界框来训练模型,以有效降低二分图匹配难度并实现更快的收敛。该方法适用于任何 DETR-like 方法,只需添加几十行代码即可实现显着改进。与同样设定下的基准相比,DN-DETR 实现了可比的性能,且仅需训练的 50%。
Mar, 2022
Deformable DETR 提出了一种改进的 Transformer 注意力模块,只关注于围绕参考点的一小集采样点,能够更好地实现物体检测,尤其是在小物体上,并在 COCO 基准测试上得到了有效的实验结果。
Oct, 2020
通过 SAM-DETR 引入半监督方法,实现了目标查询和目标特征之间的精确对齐,从而在表的识别方面显著降低了误报率,并在复杂文档中表现出较高的性能,提供了更加高效准确的表格检测。
Apr, 2024
我们提出了 Semi-DETR,一个基于 transformer 的端到端半监督物体检测器,通过阶段混合匹配策略、跨视图查询一致性方法和基于代价的伪标签挖掘模块解决 DETR 中存在的问题,并在 COCO 和 Pascal VOC 基准数据集上的所有 SSOD 设置中进行的实验表明,我们的方法优于所有现有方法。
Jul, 2023
本文提出了一种简单而有效的机制 —— 空间调制协同注意(SMCA),在检测变压器(DETR)中进行回归感知协同,以提高其收敛速度,并将多头和尺度选择注意设计集成到 SMCA 中,通过在 COCO 数据集上进行大量的消融研究,验证了 SMCA 的有效性。
Jan, 2021
通过引入实例级对比损失、修订的采样策略和轻量级分配方法,我们展示了如何将 DETR 转化为 MOT 模型,学习目标的外观并保留检测能力,其性能在具有挑战性的 BDD100K 数据集上超过了先前的最新技术水平 2.6 mMOTA,并在 MOT17 数据集上与现有的基于 transformer 的方法相媲美。
Nov, 2023
本文提出一种名为 H-DETR 的简单而有效的混合匹配方案,该方案结合了原始的 “一对一” 匹配分支和辅助的 “一对多” 匹配分支,在训练期间显著提高了准确性,同时保持了 DETR 的端到端特性和相同的推理效率。
Jul, 2022
本文提出了一种名为自适应聚类变换器(ACT)的新型变换器,通过局部敏感哈希(LSH)自适应地聚类查询特征,使用样本 - 键交互来近似查询 - 键交互,将原本二次复杂度的 self-attention 减少到每层中的原型数量 K 的 O(NK),从而将检测目标与 Transformer 相结合,能够在减少计算成本的同时取得良好的精度。
Nov, 2020