Oct, 2020
基于自注意力头的无监督成分句法分析
Heads-up! Unsupervised Constituency Parsing via Self-Attention Heads
TL;DR本研究使用Transformer-based pre-trained language models并提出一种全新的无监督分析方法,通过引入一个高排名头部的集合,用于从语法角度分析PLMs的学习知识,从而提取出PLMs的句法知识,并用这些知识来训练神经PCFG,最终与人类注释的语法树库得到比较。