Jan, 2021
联合能量模型训练以获得更好的校准自然语言理解模型
Joint Energy-based Model Training for Better Calibrated Natural Language Understanding Models
Tianxing He, Bryan McCann, Caiming Xiong, Ehsan Hosseini-Asl
TL;DR本文探讨在预训练的文本编码器(如 Roberta)的微调期间进行联合能量模型(EBM)训练,以提高模型的准确性,并通过噪声对比估计进行训练,同时引入掩码语言模型(MLM)目标来提高 NCE 训练的效果。