BriefGPT.xyz
Ask
alpha
关键词
large separable kernel attention
搜索结果 - 1
大型可分离核注意力:重新思考 CNN 中的大型核注意力设计
通过将深度可分离卷积核的二维卷积核分解为级联的水平和垂直一维卷积核,提出了一种名为 Large Separable Kernel Attention(LSKA)模块的家族,用于减少计算复杂性和内存占用,同时在视觉注意力网络(VAN)中实现具
→
PDF
10 months ago
Prev
Next