Nov, 2022

重新审视距离度量学习在少样本自然语言分类中的应用

TL;DR本论文研究了距离度量学习 (Distance Metric Learning) 对少样本学习下的监督学习语言模型 Fine-tuning 在自然语言处理 (NLP) 分类任务中的影响,并发现使用基于代理的 DML 损失有助于模型的精调和推理,尤其是使用 CCE(分类交叉熵)和 ProxyAnchor Loss 的结合模型,其平均性能优于仅使用 CCE 的模型,提高了 3.27 个百分点 -- 具体取决于训练数据集的不同。