May, 2023

PTP:基于扰动正则化的 Prompt Tuning 提升稳定性和性能

TL;DR研究表明,在自然语言理解任务中,prompt tuning 相比下游微调能更好地利用大型语言模型的优势,但是现有的 prompt tuning 方法在训练时存在不稳定性问题。本文提出了基于扰动的正则化方法,将其应用到 prompt tuning 中,从而稳定训练并提高准确性。实验结果表明,本文提出的新方法在 SuperGLUE 和 FewGLUE 基准测试中分别比现有状态 - of-the-art 方法提高了 1.94%和 2.34%。