EMNLPOct, 2022

组成、注意力或两者皆有?

TL;DR本文研究了 Composition Attention Grammars(CAGs)结构,并使用自我关注机制递归地将子树组合成单个向量表示。我们评估了此结构的作用,以及语言模型与和没有此结构的区别,发现适当的结构设计可以增强语言模型的人类化与语法推理功能。