ACLDec, 2021

引导偏离之谜:关于连续提示的离散化解释的探讨

TL;DR为了研究对离散任务 fine-tuning 的紧凑替代方法,探讨了连续提示的离散(文本)解释的可行性,并提供了各种参数的实证分析结果,发现模型越大,出现更大的不规范现象,即可以发现更贴近任意文本的提示,而精确度下降更小。这些结果对于准确解读连续提示和其在模型和任务间的推广具有重要意义,并为未来的语言提示模型提供了指导。