Feb, 2024

改进预训练语言模型以提升持续少样本关系抽取能力

TL;DR使用Prompt Learning框架和对抗式学习等技术,本文提出了一种解决持续的少样本关系抽取中灾难性遗忘和过拟合问题的方法,该方法通过引入更广义的知识表示和关注难例样本实现了对预训练语言模型的扩展和优化,同时引入有效的内存增强策略来缓解在资源匮乏情况下的过拟合问题,并通过大量实验证明了该方法在性能上超过了现有方法,并且在资源匮乏情景下显著降低了灾难性遗忘和过拟合。