Mar, 2021

RotoGrad: 多任务学习中的梯度均一化

TL;DR本文介绍了 RotoGrad 算法,该算法以整体的方式解决了负面转移问题:它同时使梯度大小和方向同质化,并确保训练收敛;研究表明,RotoGrad 在 CelebA 中的多标签分类和 NYUv2 数据集中的计算机视觉任务等复杂问题上优于竞争方法。