BriefGPT.xyz
Ask
alpha
关键词
softmax-attention
搜索结果 - 3
MB-TaylorFormer:基于 Taylor 公式扩展的多分支高效 Transformer 用于图像去雾
近年来,Transformer 网络开始取代纯卷积神经网络在计算机视觉领域的应用,但是其二次计算复杂度的 softmax-attention 限制了高分辨率图像去雾任务的广泛应用。因此,我们提出了一种新的 Transformer 变体,应用
→
PDF
10 months ago
视觉 Transformer 中的 Token 池化
该研究提出了一种称作 Token Pooling 的新型令牌下采样方法,旨在提高对视觉变换的计算速度,并通过对 softmax 注意力机制的研究,实现了更好的计算速度与精度之间的平衡。
PDF
3 years ago
无概率笼的标准化注意力
本文介绍了 softmax-attention 在几何上的局限性,并提出采用归一化代替 softmax 实现自我注意力,从而获得超参数和数据推断鲁棒性较强的通用结构。
PDF
4 years ago
Prev
Next