Jan, 2021

ProtoDA: 少样本意图分类的高效迁移学习

TL;DR该研究探讨了在自然语言处理中实用的序列分类任务通常受到目标类别低训练数据可用性的影响,利用原型网络的元学习范式在相关任务集合上进行转移学习来缓解这个问题,并使用数据增强在句子嵌入空间和原型嵌入空间来提高分类性能,相对于 5-shot 和 10-shot 学习中的最佳性能,结合元学习的增强提供了高达 6.49%和 8.53%的相对 F1 分数改进。