ACLMar, 2022

用人工语言进行预训练:研究语言模型可迁移的知识

TL;DR通过在人工语言上预训练编码器并探究其在自然语言处理中的表现,研究神经网络编码器中可迁移的结构知识,发现嵌套依赖结构的人工语言的预训练可以提供一些可迁移的知识,并且转移的成功与编码器中编码的上下文信息量相关,转移的是语言上下文依赖的位置感知知识。