Apr, 2022

利用 Hard Attention Transformers 进行正式语言识别:来自电路复杂性的视角

TL;DR本文分析了三种 Transformer 编码器的形式模型,比较它们的自注意力机制:unique hard attention(UHAT)、generalized unique hard attention(GUHAT)和 averaging hard attention(AHAT)。我们发现,UHAT 和 GUHAT Transformer 只能识别 AC$^0$ 复杂性类中的正式语言,而 AHAT 网络可以识别 UHAT 和 GUHAT 不能识别的语言。