Jan, 2024

GTA:从对象中心表示中引导空间注意力的传输

TL;DR通过对 ViT 中的注意力图进行实验分析,我们观察到当在小数据集上训练时,丰富的表示能力会恶化。受此发现启发,我们提出了一种名为 GTA 的新颖简单的 ViT 正则化方法,这种方法通过显式正则化源模型和目标模型之间的自注意力图,使目标模型能充分利用与目标定位属性相关的知识。我们的实验结果表明,当训练数据数量较少时,所提出的 GTA 在五个基准数据集上都能稳定提高准确性。