Sep, 2024

通过自我监督辅助学习实现多任务学习的表示学习

TL;DR本研究针对多任务学习中共享编码器生成表示质量不足的问题,提出了一种新方法——虚拟梯度范数正则化(DGR)。该方法通过减少虚拟任务特定预测器损失函数的梯度范数,提升共享编码器表示的通用性。实验表明,DGR显著改善了多任务预测性能,并在计算效率上也表现出优势。