基于Transformer的目标检测
该研究提出了一种新方法,将目标检测作为直接集合预测问题进行处理,主要采用基于集合的全局损失和Transformer编码器-解码器架构构建DETR模型,能够高效地完成目标检测和全景分割任务,相较于许多现代检测器,DETR模型概念简单且不需要专门的库。
May, 2020
本文研究使用纯Transformer模型实现复杂视觉任务中的目标检测,发现Vision Transformer作为骨干网在检测任务上可以产生与传统卷积网络相媲美的结果,而且能够保持更高的图像分辨率。
Dec, 2020
本文介绍了一种高效的、有效的、面向对象的检测框架——Oriented R-CNN,其中包括一种面向区域提议网络(oriented RPN),可以直接生成高质量的面向提议,并具有最先进的检测精度。
Aug, 2021
文章提出了一种基于Transformer的AOOD框架,称为AO2-DETR,包括三个组件:旋转提案生成机制、适应性旋转提案细化模块和旋转感知的集合匹配损失,使得直接集合预测任务更加简化、准确。在多个数据集上的实验证明该方法在AOOD任务上具有卓越的性能。
May, 2022
本文针对DET向有向物体检测的扩展做出首例有力的DINO基线,并提出了一种用于缓解重复预测的简单成本和匈牙利匹配的新型去噪策略,该模型的性能在DOTA-v1.0 / v1.5 / v2.0和DIOR-R基准测试中均达到了最先进水平。
May, 2023
本篇论文详细回顾了二十一篇相关的论文,讨论了最近在DETR中基于Transformer方法的研究进展,并涵盖了最新的改进,包括骨干网络改造,查询设计和注意力优化。同时,我们还比较了所有检测变压器的性能和网络设计。
Jun, 2023
提出一种名为SODFormer的基于Transformer的流式目标检测器,它通过首次集成事件和帧来连续异步检测物体,有效利用丰富的时间线索和融合两种异构视觉流,结果显示该方法在检测性能上优于四种现有方法和八种基线,可以成功处理高速运动和低光条件。
Aug, 2023
通过在单一尺度特征上操作,基于Transformer的检测器SimPLR能够利用自监督学习和缩放方法,相对于多尺度对应物和纯主干结构检测器具有更强的性能,并且速度更快。
Oct, 2023
利用旋转敏感形变注意力来增强DETR在面向检测任务中对旋转目标的检测能力,进而提出了旋转物体检测Transformer(RotaTR)作为DETR的扩展模型,相比原始DETR,在检测密集和旋转对象方面显示出巨大优势,并与现有最先进的模型相比取得了竞争性的结果。
Dec, 2023
本研究解决了遥感图像中方向性物体检测的挑战,特别是物体的多方向分布。提出的OrientedFormer通过引入高斯位置编码、Wasserstein自注意力和方向交叉注意力模块,实现了对方向性物体的有效定位和分类。实验结果表明,该方法在多个数据集上显著提升了检测性能,并减少了训练时间。
Sep, 2024