Mar, 2024

预训练的结构化生成变换器:规模化的无监督句法语言模型

TL;DR使用大规模预训练结构转换器的句法语言模型(SLM),通过从头开始在原始文本上进行高并行度的无监督训练,弥补了以前的 SLM 存在的限制,如依赖于黄金树和顺序训练。同时,我们介绍了一个表示替代方法,以在硬 EM 方式下联合并行训练模型,证明了 Generative Pretrained Structured Transformers(GPST)在语言理解和语言生成等多个任务中相比 GPT-2 具有可比大小时的优越性,同时在左到右语法归纳方面也显著优于现有的无监督 SLM,并具有训练加速的优势。