Sep, 2023
DualToken-ViT:具有双重令牌融合的位置感知高效视觉Transformer
DualToken-ViT: Position-aware Efficient Vision Transformer with Dual
Token Fusion
TL;DR提出了一种轻量级和高效的视觉变换模型DualToken-ViT,它通过卷积和自注意结构有效地融合了局部信息和全局信息以实现高效的注意力结构,并使用位置感知的全局标记来丰富全局信息,并改进了图像的位置信息,通过在图像分类、物体检测和语义分割任务上进行广泛实验,展示了DualToken-ViT的有效性,其在ImageNet-1K数据集上取得了75.4%和79.4%的准确率,而在只有0.5G和1.0G的FLOPs下,我们的1.0G FLOPs的模型的性能超过了使用全局标记的LightViT-T模型0.7%。