BriefGPT.xyz
Ask
alpha
关键词
kernelizable attention mechanisms
搜索结果 - 1
ICLR
重塑注意力:使用 Performer
本文介绍 Performers,这是 Transformer 结构,可以通过使用一种称为 FAVOR + 的新方法来估计常规(softmax)全秩注意力 Transformers,其具有可证明的准确性,但仅使用线性(而不是二次)空间和时间复
→
PDF
4 years ago
Prev
Next