采用多目标优化的方法,考虑梯度的时间行为,创建一个动态偏差,利用多任务学习的相关性来提高性能和泛化性能,并确保所有任务达到良好的泛化性能。
Apr, 2022
本文提出了一种基于参数服务器的分布式多任务学习框架,通过提供正则化多任务关系学习方法的对偶形式和一个通信有效的原始对偶分布式优化算法来同时学习每个任务的预测模型和任务之间的关系,以及提供针对分布式多任务关系学习的理论收敛分析。
Dec, 2016
本文提出了一种处理多个任务的顺序学习方法,通过仅在相关性较高的任务之间共享信息,其基于广义绑定准则的任务顺序决策能够优化任务分类绩效并自动发现任务最佳顺序。实验结果表明,顺序学习比同时学习更加有效,任务完成顺序重要并具有指引意义。
Dec, 2014
本论文将多任务学习作为多目标优化来解决,并提出了一种基于梯度下降优化算法的上限边界,证明了在现实情况下优化这个上限边界将得到帕累托最优解,在多任务深度学习问题上应用我们的方法表现出比最近的多任务学习公式或每项任务训练的模型更高的性能。
Oct, 2018
本文提出了一个利用任务间关系先验知识、通过对共享特征赋予类似系数惩罚、以及通过组稀疏方法捕获公共特征的多任务学习框架,将其定义为一个非光滑凸优化问题,在真实世界数据集的回归和分类任务上实验证明该算法可以提高多个相关任务的泛化性能。
Jan, 2023
本文提出了一种方法来选择哪些任务应该在多任务学习模型中共同训练,该方法通过训练所有任务并量化一个任务的梯度对其他任务损失的影响来确定任务分组,实验结果表明相较于在一起训练所有任务,该方法可以在 11.6 倍的速度下将测试损失降低 10%。
Sep, 2021
本文是多任务学习的一篇综述,主要介绍了在分布式数据和网络系统上学习多个相关任务的新策略以及合作规则如何促进不同任务相关性模型,同时也解释了如何和何时合作的方式比非合作的策略更有效。
Jan, 2020
研究了在多个机器学习一个未知的低维子空间中具有共享表示的分布式多任务学习问题,通过高效通信的方法来利用共享结构。
Mar, 2016
本研究关注分布式多任务学习问题,提出了一种基于 debaised lasso 的通信高效估计方法,能够在高维空间中学习线性预测器,并与最佳集中式方法相媲美。
Oct, 2015
本文提出了一种多目标优化的多任务学习方法,通过迭代传递模型参数在优化过程中解决存在冲突的多个任务,并在图像分类、场景理解和多目标回归问题中进行了实验验证,结果显示该方法显著提升了发现满足 Pareto 优化的模型集合的状态,尤其在大规模图像数据集上的实验中,比现有技术取得了近两倍的超体积收敛速度。
Mar, 2024