BriefGPT.xyz
Ask
alpha
关键词
latte transformer
搜索结果 - 1
线性时间变压器的潜在注意力
在传统的 transformer 模型中,标准的 attention 机制的时间复杂度随着序列的长度呈二次方增长。本研究提出了一种基于潜在向量定义注意力的方法,将时间复杂度降低为随序列长度线性增长。我们的 “Latte Transforme
→
PDF
4 months ago
Prev
Next