Apr, 2021

基于规模的参数高效提示微调技术的强大性

TL;DR通过prompt tuning机制,使用backpropagation学习soft prompts以提升downstream tasks的性能,其中soft prompts可以与多个labeled examples相结合,这种方法比GPT-3的few-shot learning更有效,并且在语言模型规模达到10亿以上时,method的表现与model tuning相匹敌,而且具有更好的领域转移鲁棒性。