May, 2023

PTP:基于扰动正则化的Prompt Tuning提升稳定性和性能

TL;DR研究表明,在自然语言理解任务中,prompt tuning相比下游微调能更好地利用大型语言模型的优势,但是现有的prompt tuning方法在训练时存在不稳定性问题。本文提出了基于扰动的正则化方法,将其应用到prompt tuning中,从而稳定训练并提高准确性。实验结果表明,本文提出的新方法在SuperGLUE和FewGLUE基准测试中分别比现有状态-of-the-art方法提高了1.94%和2.34%。