BriefGPT.xyz
Ask
alpha
关键词
multi-head partition-wise attention
搜索结果 - 1
具有分区注意力的双路径 Transformer
本文介绍了一种新颖的双重注意机制,包括由卷积神经网络生成的局部注意和由 Vision Transformer 生成的长程注意,提出了一种新的多头分区关注机制(MHPA)来解决计算复杂性和内存占用的问题,并基于此提出了一个分层视觉骨干网络 D
→
PDF
a year ago
Prev
Next