AAAIJan, 2022

注意力机制的快速蒙特卡罗近似

TL;DR引入 Monte-Carlo Attention(MCA),一种随机化逼近方法,旨在减少 Transformer 架构中的自注意机制的计算成本,并通过近似矩阵乘法对输入令牌进行编码,使得计算低关注度的输入令牌时具有弛容性,从而降低了注意力复杂度并提高了模型的精确性。