BriefGPT.xyz
Ask
alpha
关键词
distillation-based model reduction
搜索结果 - 1
MixFormerV2:高效全 Transformer 跟踪
本文提出了一种基于全 Transformer 结构的跟踪框架 MixFormerV2,通过引入四个特殊的预测 tokens,结合目标模板和搜索区域的 tokens,采用 Transformer 骨干网络进行跟踪预测,进而通过简单的 MLP
→
PDF
a year ago
Prev
Next