COLINGSep, 2021

NSP-BERT: 一种基于提示的少样本学习器,通过原始预训练任务进行 -- 接下来的句子预测

TL;DR本文利用 BERT 的原始预训练任务 Next Sentence Prediction(NSP)探索零样本学习场景下的自然语言处理任务,提出了基于句子级别的 NSP-BERT 方法,克服了标记级方法的固定长度和位置限制,可应用于实体链接等任务。作者还提出了多种下游任务的快速构建模板和两阶段提示方法。在 FewCLUE 基准测试中,NSP-BERT 在大多数任务上超过其他零样本方法,并接近少样本方法。