Nov, 2022

监督式语言模型微调的小样本场景距离度量损失函数

TL;DR本文研究了距离度量学习 (Distance Metric Learning,DML) 损失函数对用于分类任务的语言模型有监督微调的影响。在实验中,我们使用 SentEval Transfer Tasks 数据集,发现使用 DML 损失函数可以在少样本情况下提高 RoBERTa-large 模型在下游分类任务中的性能,使用 SoftTriple 损失微调的模型可以比使用标准分类交叉熵损失函数的模型取得更好的结果。同时,我们使用可解释性技术对模型的可靠性和结果进行了全面分析。