BriefGPT.xyz
Ask
alpha
关键词
bi-directional block self-attention network
搜索结果 - 1
ICLR
快速、存储效率高的序列建模的双向块自注意力
本文提出了一种双向块自注意力网络 (Bi-BloSAN) 来进行 RNN/CNN-free 序列编码,用于解决 RNN/CNN/SAN 的时间效率和内存开销问题,并在 NLP 任务中取得了最新水平的表现。
PDF
6 years ago
Prev
Next