BriefGPT.xyz
Feb, 2022
生成式多任务学习缓解目标造成的混淆
Generative multitask learning mitigates target-causing confounding
HTML
PDF
Taro Makino, Krzysztof Geras, Kyunghyun Cho
TL;DR
提出了一种简单,可扩展的方法生成多任务学习(GMTL),用于多任务学习的因果表示学习。该方法改变了传统的多任务推理目标,并增强了对目标转移的鲁棒性,它可以与现有的多任务学习方法一起使用而无需额外的训练。我们的结果表明,应用GMTL可以提高属性与Taskonomy数据集对于四种不同多任务学习方法的鲁棒性。
Abstract
We propose a simple and scalable approach to
causal representation learning
for multitask learning. Our approach requires minimal modification to existing ML systems, and improves
robustness
to prior probability
→