Jan, 2024

LKCA:大卷积核关注

TL;DR我们重新审视了注意力机制与大内核卷积神经网络在视觉转换器中的关系,并提出了一种称为大内核卷积注意力(LKCA)的新空间注意力机制。它通过将注意力操作替换为单个大内核卷积来简化注意力机制。LKCA 结合了卷积神经网络和视觉转换器的优势,具有大的接受域、局部性和参数共享特点。我们从卷积和注意力的角度解释了 LKCA 的优势,并为每个视角提供了等效的代码实现。实验证实,从卷积和注意力的角度实现的 LKCA 表现出等效性能。我们在分类和分割任务中广泛实验了 LKCA 变体的 ViT。实验表明,LKCA 在视觉任务中表现出竞争性能。我们的代码将在此 https URL 上公开。