EMNLPSep, 2021

SupCL-Seq: 下游优化序列表示的有监督对比学习

TL;DR本文介绍了 SupCL-Seq,这是一种扩展了计算机视觉中的监督对比学习方法,应用于优化自然语言处理中的序列表示。通过改变标准 Transformer 架构中的 dropout 掩码概率,在每个表示(锚)上生成增强的变形视图,并使用监督对比损失来最大化系统将相似样本(例如,锚和它们的变形视图)拉拢在一起并将属于其它类别的样本推开的能力。相较于标准 BERTbase 模型,在 GLUE 基准测试中的许多序列分类任务中取得了显著提升,包括 CoLA 上的 6%、MRPC 上的 5.4%、RTE 上的 4.7%和 STSB 上的 2.6%,特别是在非语义任务中,相对于自监督对比学习表示也表现出了一致增长。最后,我们展示了这些增益并不仅仅是由于数据增广,而是由于下游优化的序列表示。