Sep, 2023

大型可分离核注意力:重新思考 CNN 中的大型核注意力设计

TL;DR通过将深度可分离卷积核的二维卷积核分解为级联的水平和垂直一维卷积核,提出了一种名为 Large Separable Kernel Attention(LSKA)模块的家族,用于减少计算复杂性和内存占用,同时在视觉注意力网络(VAN)中实现具有大卷积核的注意力模块,并表明 LSKA 模块比 VAN 中的标准 LKA 模块具有更大的目标形状偏好和较低的计算复杂度和内存占用。