Jun, 2023
基于Prompt的少样本学习在自然语言理解中对抗鲁棒性研究
Adversarial Robustness of Prompt-based Few-Shot Learning for Natural
Language Understanding
TL;DR本篇研究对几种最先进的小样本学习方法进行了广泛的研究,以评估它们对敌对扰动的鲁棒性,结果表明相对于完全微调模型,普通的Few-shot学习方法在面对敌对扰动时表现出显著的下降,但使用(i)用于提示的未标记数据和(ii)多个提示扭转了这种趋势,并且增加少量样本的例数和模型大小可以增加其鲁棒性。