ICCVJul, 2023

少即是多:聚焦注意力的高效 DETR

TL;DRDETR-like 模型相比传统卷积模型有很大的提升效果,然而现有的编码器结构中所有的令牌都被平等对待,不加区分地处理给传统的编码器结构带来了冗余计算负担,因此提出了 Focus-DETR 来得到更好的计算效率和模型准确性的权衡,通过使用双重注意力的编码器对更具信息量的令牌进行关注,并通过得分来增强细粒度对象查询的语义交互。