Sep, 2022

大型预训练语言模型微调的多目标优化方法:监督对比学习

TL;DR将 SCL 问题描述为 RoBERTa 语言模型精调阶段的多目标优化问题,使用线性标量化方法和精确 Pareto 最优解法解决优化问题,在多个 GLUE 基准任务上,无需使用数据增强、存储器库或生成对抗性示例,找到了比竞争对比学习基线更好的学习策略。