EDTER: 基于 Transformer 的边缘检测
该研究提出了一种新方法,将目标检测作为直接集合预测问题进行处理,主要采用基于集合的全局损失和 Transformer 编码器 - 解码器架构构建 DETR 模型,能够高效地完成目标检测和全景分割任务,相较于许多现代检测器,DETR 模型概念简单且不需要专门的库。
May, 2020
基于 Transformer 的目标检测器 (DETR) 在机器视觉任务中表现出显著性能,但其在处理遮挡和对抗扰动等不同图像干扰方面存在问题。我们通过多种实验和将 DETR 与基于卷积神经网络 (CNN) 的检测器(如 YOLO 和 Faster-RCNN)进行基准测试来研究这个问题。我们发现 DETR 在处理遮挡图像的信息丢失干扰方面表现良好。然而,在涂有对抗标记的图像上,网络需要产生一组新的不必要的键、查询和值,导致网络方向错误。与图像损坏基准测试中 YOLOv5 相比,DETR 的性能也较差。此外,我们发现 DETR 在进行预测时严重依赖于主要查询,导致查询之间的贡献不平衡,因为主要查询接收大部分梯度流。
Oct, 2023
本篇论文详细回顾了二十一篇相关的论文,讨论了最近在 DETR 中基于 Transformer 方法的研究进展,并涵盖了最新的改进,包括骨干网络改造,查询设计和注意力优化。同时,我们还比较了所有检测变压器的性能和网络设计。
Jun, 2023
本研究针对小物体检测中 RT-DETR 模型的准确性不足提出了两个关键改进:首先,引入细粒度路径增强方法以提供更多详细信息来精确定位小物体;其次,采用自适应特征融合算法来有效整合不同尺度的特征信息,从而提高模型对不同尺度目标的检测准确率。
Jan, 2024
3DETR 是一种基于 Transformer 的端到端目标检测模型,适用于 3D 点云,相较于现有的检测方法,它需要最少的修改,可以通过将 3D 领域知识整合进去得到进一步的改进,在 ScanNetV2 数据集上,相比于 VoteNet 基线具有 9.5% 更好的性能,并且适用于其他 3D 任务。
Sep, 2021
本文提出基于 Transformer 的新方法 O²DETR,实现了复杂的有方向物体检测,无需旋转锚点,其性能表现明显优于 Faster R-CNN 和 RetinaNet。
Jun, 2021
通过使用两阶段的基于 Transformer 的网络,我们通过全局感知机制并利用注意力机制来解决细粒度边缘检测任务中的三个限制,在预测一般性边缘和细粒度边缘之间保持一致性,并在公开基准测试中取得了新的最先进结果。
Aug, 2023
本研究提出了一种名为 DET 的新型 Transformer 架构,采用结构编码器聚合连接邻居的信息和语义编码器聚焦于远距离节点,通过自监督训练寻找所需的远距离邻居,比使用多跳邻居的方法更为优越。实验结果表明,DET 在处理分子、网络和各种规模的知识图谱方面比对应的最新方法具有更优越的性能表现。
Feb, 2022
Deformable DETR 提出了一种改进的 Transformer 注意力模块,只关注于围绕参考点的一小集采样点,能够更好地实现物体检测,尤其是在小物体上,并在 COCO 基准测试上得到了有效的实验结果。
Oct, 2020
该研究提出了基于 transformer-based 的 MDETR 多模态推理系统,能够从图像中提取物体并进行相关性文本推理,实验表明在对象检测、自然语言问题回答等任务中均获得了最佳表现。
Apr, 2021