We propose a novel application of self-attention networks towards grammar
induction. We present an attention-based supertagger for a refined type-logical
grammar, trained on constructing types inductively. In add
本研究提出了标签关注层,一种新的自注意形式,其中关注头表示标签。运行实验并在 Penn Treebank(PTB)和中文 Treebank 上展示出其在词法句法分析方面的最新成果,标签关注层在该实验中表现出了更好的性能,相比现有工作需要较少的自我注意层数。最后,我们发现标签注意头学习了语法类别之间的关系,并显示了分析错误的路径。