EMNLPSep, 2021

Few-shot 基于提示微调中避免推断启发式方法

TL;DR本文研究表明,在句子对分类任务中,虽然预训练语言模型提供了低数据环境下的优势,但基于提示的微调模型仍然存在使用基于词汇重叠的推理启发式的共同缺陷,加入保留预训练权重的正则化可以缓解这种破坏性的微调倾向,并在三个挑战数据集上显示了可预期的改进。