ICLRApr, 2018
快速、存储效率高的序列建模的双向块自注意力
Bi-Directional Block Self-Attention for Fast and Memory-Efficient Sequence Modeling
Tao Shen, Tianyi Zhou, Guodong Long, Jing Jiang, Chengqi Zhang
TL;DR本文提出了一种双向块自注意力网络 (Bi-BloSAN) 来进行 RNN/CNN-free 序列编码,用于解决 RNN/CNN/SAN 的时间效率和内存开销问题,并在 NLP 任务中取得了最新水平的表现。