本文提出了一种基于系统中每个任务的均方差误差的权重的深度学习多任务学习方法,可以同时处理分类和回归任务,并在主管深度估计、语义和实例分割方面展示了比独立训练的模型更好的表现。
May, 2017
本文提出了一种基于知识蒸馏的多任务学习方法。通过先学习任务特定的模型,再学习多任务模型,该方法可以解决多任务学习中的不平衡问题,以实现更好的整体性能。
Jul, 2020
本文提出了一种利用方差系数确定权重,进而平衡单任务的多个损失函数的方法,并在深度估计和语义分割任务上进行了实验证明了可行性。
Sep, 2020
本文提出随机加权方法(包括随机损失权重和随机梯度权重),并进行了收敛性分析和实证评估,结果表明随机加权方法具有可比拟的性能和更好的泛化能力,是多任务学习的重要基线方法之一。
Nov, 2021
本文介绍了多任务学习中的负迁移问题,提出了一种通过指数移动平均进行损失平衡的技术,以达到深度学习模型的高效训练,实现了与当前最佳方法相媲美的效果。
Nov, 2022
提出了一种名为SLGrad的样本级别加权算法,通过样本特定的任务权重,改变训练过程中的任务分布,以消除有害的辅助信号并增强有用的任务信号,从而提高神经网络的泛化性能。
Jun, 2023
在多任务学习领域的研究中,线性标量化一直是文献中的默认选择。然而,近年来出现了将多任务学习视为多目标优化问题的专用多任务优化器(SMTOs)的兴趣激增,因此是否有SMTOs相对于标量化算法的基本优势还是个开放的问题。本文从理论角度重新审视标量化,研究线性多任务学习模型是否能完全探索帕累托前沿,并发现无法实现全面探索,特别是那些在多个任务之间取得平衡权衡的帕累托最优解。实验证实了我们的理论发现,并揭示了SMTOs在寻求平衡解决方案方面的潜力。
Aug, 2023
通过多领域和多任务学习的大规模统一分析,深入了解标量化在各种任务和领域组合以及模型规模中的动态,然后借助基于群体的训练来有效地搜索处理大量任务或领域时的最优标量化权重。
Oct, 2023
使用多任务学习的方法,通过考虑过度风险的任务平衡,来解决存在标签噪音的情况下,优化问题中任务权重难以调整的挑战。
Feb, 2024
使用贝叶斯推断的梯度聚合方法能够考虑梯度不确定性,提高多任务学习的性能表现。