Oct, 2023

PolySketchFormer:基于草图的快速 Transformer 用于多项式核函数

TL;DR该研究论文通过使用多项式函数和多项式取样法,替代基于 softmax 的注意力机制,以及提出基于区块的算法,实现了一个能够在线性时间内计算多项式注意力机制的实用线性变换器架构,从而显著提高了大规模上下文下的注意力机制的速度。