ACLJun, 2021

通过有针对性的微调揭示神经模型中基于约束的行为

TL;DR本文研究了大型预训练语言模型中内嵌的语言知识,并探索了同时存在的竞争性语言过程如何影响模型行为。通过对四种语言中的一个现象进行实验,发现模型行为存在跨语言差异。而有针对性的微调可以重新建立学习的约束,揭示模型中否则未表现出的语言知识。