Nov, 2023

Transformer 语言模型中的句法归纳偏置:对低资源语言特别有帮助吗?

TL;DR一项关于基于 Transformer 的语言模型(如 BERT)的研究尝试使用语法归纳偏置来增强预训练过程,理论上通过将语法结构融入训练过程可以降低训练所需的数据量。但此类方法通常在高资源语言(如英语)上进行测试。在这项研究中,我们调查了这些方法是否可以弥补低资源语言中的数据稀疏性,研究假设它们在低资源语言中应该更加有效。我们对五种低资源语言进行了实验:维吾尔语、沃洛夫语、马耳他语、科普特语和古希腊语。我们发现这些语法归纳偏置方法在低资源环境中产生不均匀的结果,并在大多数情况下提供出乎意料的少量益处。