关键词self-attention-based networks
搜索结果 - 2
- 序列推荐中的位置注意力学习
自注意力机制网络在顺序推荐任务中取得了显著的性能表现。本研究探讨了学习到的位置编码,发现其通常捕捉到令牌之间的距离。基于这一发现,我们提出了直接学习位置关系的新型注意力模型。大量实验证明了我们提出的模型 PARec 和 FPARec 优于之 - CVPR走向强健的视觉 Transformer
研究发现,很多 ViT 组件对鲁棒性有害,因此提出使用鲁棒组件构建 Robust Vision Transformer(RVT)网络,并进一步提出 position-aware attention scaling 和 patch-wise