Some nlp tasks can be solved in a fully unsupervised fashion by providing a
pretrained language model with "task descriptions" in natural language (e.g.,
Radford et al., 2019). While this approach underperforms i
提出 Active PETs 方法,利用多种语言模型的 Pattern Exploiting Training 模型的集成来主动选择未标记数据作为标注候选数据。在使用六个不同的预训练语言模型和两个技术事实验证数据集的 few-shot 数据选择上,使用 Active PETs 显示持续改进基线方法,并通过 Active PETs-o 取得更进一步的提高。该方法能够有效选择要标记的实例,即在未标记数据充足但标记资源有限的情况下,使得 few-shot 辩称验证性能持续提高。