May, 2021

EPSANet:卷积神经网络上有效的金字塔压缩注意力块

TL;DR本论文提出了一种轻量且高效的注意力方法,称为金字塔挤压注意力模块(PSA),并用其替换 ResNet 的瓶颈块中的 3x3 卷积,从而形成了一种高效的金字塔挤压注意力(EPSA)块,可轻松插入任何基础网络中用于计算机视觉任务,如图像分类、目标检测和实例分割等,达到比大多数现有注意模块更优秀的性能。