BriefGPT.xyz
Ask
alpha
关键词
focused linear attention module
搜索结果 - 1
扁平 Transformer:使用专注线性注意力的视觉 Transformer
我们提出了一种新颖的线性关注模块,通过引入简单但有效的映射函数和高效的排名恢复模块,提高了自注意力的表达能力,同时保持了低计算复杂度。大量实验证明,我们的线性关注模块适用于各种先进的视觉 Transformer,并在多个基准测试中实现了持续
→
PDF
a year ago
Prev
Next