BriefGPT.xyz
Ask
alpha
关键词
gated positional self-attention
搜索结果 - 1
ConViT:利用软卷积归纳偏置提升视觉 Transformer 性能
本文提出了一种形式的位置自注意力机制:门控位置自注意力,该机制能够同时具备卷积神经网络的空域学习和自注意力层的位置不变性。作者使用这种机制构建了名为 ConViT 的混合卷积 - 自注意力神经网络,通过在 ImageNet 数据集上的实验表
→
PDF
3 years ago
Prev
Next