ACLMar, 2020

使用预训练 Transformer 模型进行数据增强

TL;DR本文研究了不同类型的基于 Transformer 的预训练模型(如 GPT-2,BERT 和 BART),并探索了在数据增强方面,如何在文本序列之前添加类标签提供了一种简单而有效的条件方法,预先训练的 Seq2Seq 模型在低资源环境下胜过了其他数据增强方法,在数据分布和类标签信息保存方面也进行了探讨。