Feb, 2022

生成式多任务学习缓解目标造成的混淆

TL;DR提出了一种简单,可扩展的方法生成多任务学习(GMTL),用于多任务学习的因果表示学习。该方法改变了传统的多任务推理目标,并增强了对目标转移的鲁棒性,它可以与现有的多任务学习方法一起使用而无需额外的训练。我们的结果表明,应用GMTL可以提高属性与Taskonomy数据集对于四种不同多任务学习方法的鲁棒性。