EMNLPOct, 2023

使用监督对比学习对轻量级语言模型进行情感翻新

TL;DR我们提出了一种新颖的改进方法,用于将情绪方面引入预训练语言模型(如 BERT 和 RoBERTa)。通过对比学习更新预训练网络权重,使表现出类似情绪的文本片段在表示空间中靠近编码,而具有不同情绪内容的片段则被推开。我们的方法对 PLMs 进行了改进,即 BERTEmo 和 RoBERTaEmo,生成了情绪感知的文本表示,通过不同的聚类和检索指标进行评估。在情感分析和讽刺检测的下游任务中,它们比预训练模型表现得更好(F1 分数提高约 1%),且在少样本学习中观察到了更显著的性能提升。