May, 2023

MixFormerV2:高效全 Transformer 跟踪

TL;DR本文提出了一种基于全 Transformer 结构的跟踪框架 MixFormerV2,通过引入四个特殊的预测 tokens,结合目标模板和搜索区域的 tokens,采用 Transformer 骨干网络进行跟踪预测,进而通过简单的 MLP heads 预测跟踪框和评估置信度得分,并提出了一种新的蒸馏模型的减少算法,包括密集到稀疏和深层到浅层的蒸馏,以进一步提高跟踪器性能。