基于鲁棒正则聚类和非凸群体惩罚的多任务学习
提出一种名为 Convex Clustering Multi-Task regression Learning (CCMTL) 的算法,通过在预测模型的 k 近邻图上与凸聚类相结合,并使用新提出的优化方法有效地解决底层凸问题,使得其能够在包含大量任务的问题中实现准确性、高效性和线性可扩展性,并在真实世界和合成数据集上优于 7 种现有的 state-of-the-art 多任务学习方法。
Nov, 2018
本文提出了一种基于特征层次的多任务学习模型,实现了对任务关系的探索,并对合成数据和真实世界数据进行了实验验证,结果表明该模型的准确性在各种任务关系程度下表现最佳,具有较高的应用价值。
Jun, 2012
提出了多任务因果表示学习框架,通过解缠神经模块,学习每个任务的因果关系,从而解决多任务学习中非因果知识的问题,并在 Multi-MNIST、MovieLens、Taskonomy、CityScape 和 NYUv2 数据集上验证了其性能优于现有算法平均 5.5% 的效果。
May, 2022
本文提出了一种新型 MTL 模型,通过交替极小化算法解决任务关系结构和任务参数的联合估计问题,应用于回归和分类问题,结合灰色图模型结构学习得出任务关系结构。在温度预测等多个数据集中,该模型展现出了显著的表现优势。
Sep, 2014
本文提出了一种新的谱范数方法,用于多任务学习,假设任务被分成不同的群组,每个群组具有相似的权重向量,并演示其在合成数据及 IEDB MHC-I 结合数据集上的优秀表现。
Sep, 2008
多任务学习是一种学习范式,可以同时训练多个相互通信的算法。本研究提出了一种可证明的损失加权方案,用于平衡回归和分类任务,并通过建立 MTLComb 算法和软件包来展示其有效性。
May, 2024
本文提出了一种分布式和异步优化的多任务学习框架,该框架能够有效地解决数据存储在不同地点时的挑战,同时能够提高多任务学习模型的泛化性能。实证研究表明本文提出的方法在合成和实际数据集上均表现出高效和有效的性能。
Sep, 2016
本文提出了一种名为 EMTL 的新型多任务学习优化方法,通过正则化不同任务的相对贡献,在更新共享参数时改善了多任务学习的泛化性能,并通过扩展实验验证了该方法的稳定性和优越性。
Jun, 2023
提出了一种多任务学习方法,该方法基于任务聚类和特征变换,通过目标和特征的两阶段迭代聚合来提高回归模型的泛化能力,并在合成数据和真实世界的数据集上进行了验证。
Jun, 2024