BriefGPT.xyz
Ask
alpha
关键词
position biases
搜索结果 - 1
一个无需关注机制的 Transformer
本研究提出了 Attention Free Transformer (AFT) 框架,它采用了一种高效的元素级别的矩阵运算,不需要使用点积自注意力机制,通过引入位置偏移可以降低存储复杂度,同时实现了全局连接与本地化结合的空间权重共享。在 C
→
PDF
3 years ago
Prev
Next