Oct, 2023
具有强制注意力的 Transformer 编码器所接受的逻辑语言
Logical Languages Accepted by Transformer Encoders with Hard Attention
TL;DR我们研究了可以被Transformer编码器识别的形式语言,重点关注了两种自注意机制:UHAT(Unique Hard Attention Transformers)和AHAT(Average Hard Attention Transformers)。我们展示了UHAT编码器可以识别第一阶逻辑中可定义的所有语言,而AHAT编码器可以识别加上计数项的逻辑中的所有语言。