May, 2020

CERT:对比自监督学习用于语言理解

TL;DR本研究提出了一种基于对比自监督学习的证明性自我预训练编码器,称为 CERT,用于在句子级别上预训练语言表示模型,通过使用反向翻译创建原始句子的增强,并通过预测两个增强的句子是否来自同一句子来微调预训练语言编码器,评估表明 CERT 在自然语言理解任务的性能优于 BERT。