Nov, 2022

多视角压缩表示与低资源微调的鲁棒性研究

TL;DR本文提出了一种新颖的方法,通过在预训练语言模型的隐藏表示上操作,通过将自编码器插入到 PLM 的隐藏层之间,将以前层的激活转换为多视图压缩表示,然后输入到上层,以减少过拟合。此方法展示了在各种序列和标记级别的低资源 NLP 任务中的性能改进。