BriefGPT.xyz
Ask
alpha
关键词
sequential self-distillation
搜索结果 - 1
ACL
使用 PLMs 重新审视少样本意图分类:直接微调 vs. 连续预训练
本文针对少样本意图检测任务进行研究,提出一种新的方法,即直接在少量标记数据上对预训练语言模型(PLMs)进行微调,使用上下文增强方法和序列自蒸馏技术进一步优化性能。实验表明,该方法优于许多强基线方法,甚至是在只有每类两个或更多标记样本的情况
→
PDF
a year ago
Prev
Next