ACLJun, 2023

使用 PLMs 重新审视少样本意图分类:直接微调 vs. 连续预训练

TL;DR本文针对少样本意图检测任务进行研究,提出一种新的方法,即直接在少量标记数据上对预训练语言模型(PLMs)进行微调,使用上下文增强方法和序列自蒸馏技术进一步优化性能。实验表明,该方法优于许多强基线方法,甚至是在只有每类两个或更多标记样本的情况下。