May, 2023

LSAS: 轻量级次级注意机制缓解注意偏向问题

TL;DR本文研究计算机视觉中深度神经网络由于其特征提取能力,会在图像中关注一些关键的像素区域,但我们通过量化和统计表明,DNN 存在严重的注意偏差问题;通过现有的自注意机制有一定的缓解,但仍然存在偏差,因此我们提出了一个轻量级的 LSAS 策略,通过高阶子注意模块来改进原始的自注意模块,并通过实验证明其有效性。