Oct, 2023
具有强制注意力的 Transformer 编码器所接受的逻辑语言
Logical Languages Accepted by Transformer Encoders with Hard Attention
Pablo Barcelo, Alexander Kozachinskiy, Anthony Widjaja Lin, Vladimir Podolskii
TL;DR我们研究了可以被 Transformer 编码器识别的形式语言,重点关注了两种自注意机制:UHAT(Unique Hard Attention Transformers)和 AHAT(Average Hard Attention Transformers)。我们展示了 UHAT 编码器可以识别第一阶逻辑中可定义的所有语言,而 AHAT 编码器可以识别加上计数项的逻辑中的所有语言。