ACLJun, 2023

基于 Prompt 的少样本学习在自然语言理解中对抗鲁棒性研究

TL;DR本篇研究对几种最先进的小样本学习方法进行了广泛的研究,以评估它们对敌对扰动的鲁棒性,结果表明相对于完全微调模型,普通的 Few-shot 学习方法在面对敌对扰动时表现出显著的下降,但使用(i)用于提示的未标记数据和(ii)多个提示扭转了这种趋势,并且增加少量样本的例数和模型大小可以增加其鲁棒性。