本文介绍了多任务学习中的负迁移问题,提出了一种通过指数移动平均进行损失平衡的技术,以达到深度学习模型的高效训练,实现了与当前最佳方法相媲美的效果。
Nov, 2022
本文采用深度多任务学习方法,探究如何选择有用的辅助任务来提高模型性能和泛化能力。
Jul, 2020
多任务学习中的任务平衡问题通过引入尺度不变的多任务学习方法 (SI-MTL) 得到缓解,SI-MTL 包含对任务损失进行的对数变换以保持尺度不变,并采用尺度不变的梯度平衡方法 (SI-G) 来规范化所有任务梯度,实验证明 SI-G 的有效性以及 SI-MTL 的最先进性能。
Aug, 2023
本文提出随机加权方法(包括随机损失权重和随机梯度权重),并进行了收敛性分析和实证评估,结果表明随机加权方法具有可比拟的性能和更好的泛化能力,是多任务学习的重要基线方法之一。
Nov, 2021
本文提出了一种自动重新调整辅助任务权重的方法,以减少主任务所需的培训数据,并在多个实验设置下证明了算法的有效性,同时避免昂贵的网格搜索。
Oct, 2020
该研究提出了一种框架,通过联合利用来自具有足够多类别的大型辅助任务和这些任务之间共享的信息,来学习在训练样本有限、标签集仅部分重叠或甚至没有的多任务。其关键思想是利用可用的标签信息,自适应地修剪辅助网络的隐藏层神经元,构建每个任务的相应网络,并伴随着个别任务的联合学习。实验结果表明,该方法比最先进的方法更加有效。
Jan, 2022
本文提出了一种名为 EMTL 的新型多任务学习优化方法,通过正则化不同任务的相对贡献,在更新共享参数时改善了多任务学习的泛化性能,并通过扩展实验验证了该方法的稳定性和优越性。
Jun, 2023
为了创建能为多样用户提供服务的机器学习系统,需要不仅实现高的平均性能,还要确保在不同群组中公平的结果。本文研究了多任务学习在最差群组准确性和群组公平性挑战中的潜力,并提出了通过对多任务表示空间进行正则化改进的方法。实验结果表明,我们的正则化多任务学习方法在最差和平均群组结果上都优于现有方法。
Dec, 2023
本文提出了一种分布式和异步优化的多任务学习框架,该框架能够有效地解决数据存储在不同地点时的挑战,同时能够提高多任务学习模型的泛化性能。实证研究表明本文提出的方法在合成和实际数据集上均表现出高效和有效的性能。
Sep, 2016
提出了多任务因果表示学习框架,通过解缠神经模块,学习每个任务的因果关系,从而解决多任务学习中非因果知识的问题,并在 Multi-MNIST、MovieLens、Taskonomy、CityScape 和 NYUv2 数据集上验证了其性能优于现有算法平均 5.5% 的效果。
May, 2022