AAAIApr, 2020

Segatron: 面向分段的 Transformer 模型用于语言建模和理解

TL;DR提出一种基于段落、句子和标记结合的位置编码的 Segment-aware Transformer 模型,并在 Transformer-XL 模型和 BERT 模型上进行预训练和测试,在语言建模和自然语言处理任务中取得了更好的表现。