ACLOct, 2020
基于自注意力头的无监督成分句法分析
Heads-up! Unsupervised Constituency Parsing via Self-Attention Heads
Bowen Li, Taeuk Kim, Reinald Kim Amplayo, Frank Keller
TL;DR本研究使用 Transformer-based pre-trained language models 并提出一种全新的无监督分析方法,通过引入一个高排名头部的集合,用于从语法角度分析 PLMs 的学习知识,从而提取出 PLMs 的句法知识,并用这些知识来训练神经 PCFG,最终与人类注释的语法树库得到比较。