Sep, 2023

大型可分离核注意力:重新思考CNN中的大型核注意力设计

TL;DR通过将深度可分离卷积核的二维卷积核分解为级联的水平和垂直一维卷积核,提出了一种名为Large Separable Kernel Attention(LSKA)模块的家族,用于减少计算复杂性和内存占用,同时在视觉注意力网络(VAN)中实现具有大卷积核的注意力模块,并表明LSKA模块比VAN中的标准LKA模块具有更大的目标形状偏好和较低的计算复杂度和内存占用。