Oct, 2021

零样本学习的隐式和显式注意力

TL;DR本文提出了隐式和显式注意机制来解决零样本学习模型中现有偏差问题,其中隐式注意机制采用自监督图像旋转任务来聚焦于特定的图像特征,显式注意机制则借助 Vision Transformer 模型中的多头自注意机制来将图像特征映射到语义空间。实验结果表明,该注意机制的性能得到了验证,其在 AWA2、CUB 和 SUN 等三个流行数据集上的表现均为最佳。