Oct, 2023

具有强制注意力的 Transformer 编码器所接受的逻辑语言

TL;DR我们研究了可以被 Transformer 编码器识别的形式语言,重点关注了两种自注意机制:UHAT(Unique Hard Attention Transformers)和 AHAT(Average Hard Attention Transformers)。我们展示了 UHAT 编码器可以识别第一阶逻辑中可定义的所有语言,而 AHAT 编码器可以识别加上计数项的逻辑中的所有语言。