Feb, 2024
度量学习编码模型识别BERT表示中语言特征的处理特征
Metric-Learning Encoding Models Identify Processing Profiles of
Linguistic Features in BERT's Representations
TL;DR通过引入度量学习编码模型(MLEMs)作为一种新方法,本研究运用MLEMs将从BERT提取的神经表示应用于跟踪各种语言特征,并发现:(1)语言特征被排序,不同层次中句子的表示有不同程度的分离;(2)神经表示按层次组织,某些层次中,表示被嵌套在更大的表示群集中,遵循连续重要的语言特征;(3)语言特征在中间层次被解耦,不同语言特征激活不同的单位。在方法上,MLEMs优于多变量解码方法(4),更robust于Ⅰ类错误,并且优于单变量编码方法(5),能够预测局部和分布式表示。这证明了度量学习编码方法在研究语言模型中语言特征如何神经编码以及MLEMs相较传统方法的优势。MLEMs可以用于其他领域(例如视觉)和其他神经系统,如人脑。