Feb, 2023

基于掩码的 BERT 模型的少样本文本分类

TL;DR文章提出了一种名为 Mask-BERT 的模型,通过选择性地在文本输入上应用掩码来过滤掉不相关的信息,从而引导模型专注于有影响的标记,以帮助 BERT-based 架构解决低资源场景下(即 few-shot learning)训练稳健模型的困境,并引入对比学习损失函数,以使不同类别的文本表示更易区分,同一类别的文本表示更加紧凑。公共基准数据集上的实验结果证明了 Mask-BERT 模型的有效性。