May, 2022

针对预训练语言模型的标签正则化微调研究

TL;DR该研究旨在研究标签正则化技术在 NLP 中的使用以及它是否需要老师网络进行指导,经过对 BERT、RoBERTa 和 GPT 等 PLMs 进行 600 多次试验,发现预训练本身已经具有正则化的作用,因此在 fine-tuning 时,添加额外的标签正则化并不必要。