Apr, 2024

变形金刚对政府了解多少?

TL;DR该论文研究了语言特征和自然语言结构的编码在 Transformer 语言模型中可以获得的洞察力,特别是探讨了 BERT 如何编码句子中成分之间的关系。我们使用多个探测分类器和两种形态丰富的语言数据进行实验,结果表明,Transformer 的所有层都编码了关于成分关系的信息,但主要在模型的早期层中。同时,我们发现,对于这两种语言,少数注意力头足够编码关于成分关系的信息,使得我们能够训练一个能够发现以前未见过的新类型政府关系的分类器。目前,研究语法结构尤其是政府关系的研究界缺乏数据,我们发布了 Government Bank 数据集,定义了我们实验语言中成千上万个词形的政府关系。