ICCVSep, 2023

保持简洁:谁说监督 Transformer 受注意力不足之苦?

TL;DR我们通过提出一种通用的池化框架,将卷积网络和视觉变换器的默认池化机制替换为简单的基于注意力的池化机制 SimPool,从而改善了预训练和下游任务的性能,并在所有情况下提供了能够描绘物体边界的注意力分布图。