ACLFeb, 2022

PromDA: 一种基于提示的数据增强方法,用于低资源的自然语言理解任务

TL;DR本研究聚焦于为低资源的自然语言理解任务提供数据增强。我们提出了一种基于提示的数据增强模型(PromDA),它只在冻结的预训练语言模型(PLMs)中训练小规模的软提示(即一组可训练向量)。该方法通过两个不同的视角生成合成数据,并使用 NLU 模型过滤掉质量低的数据。在四个基准测试上进行实验,PromDA 产生的合成数据成功提升了 NLU 模型的性能,并始终优于几个有竞争力的基准模型,包括使用未标记的领域内数据的最先进的半监督模型。PromDA 产生的合成数据也是未标记的领域内数据的补充。当将这些数据与未标记的领域内数据结合使用时,NLU 模型的性能可以进一步提高。