Apr, 2022

利用Hard Attention Transformers进行正式语言识别:来自电路复杂性的视角

TL;DR本文分析了三种Transformer编码器的形式模型,比较它们的自注意力机制:unique hard attention(UHAT)、generalized unique hard attention(GUHAT)和averaging hard attention(AHAT)。我们发现,UHAT和GUHAT Transformer只能识别AC$^0$复杂性类中的正式语言,而AHAT网络可以识别UHAT和GUHAT不能识别的语言。