本文提出了一种分布式和异步优化的多任务学习框架,该框架能够有效地解决数据存储在不同地点时的挑战,同时能够提高多任务学习模型的泛化性能。实证研究表明本文提出的方法在合成和实际数据集上均表现出高效和有效的性能。
Sep, 2016
本研究关注分布式多任务学习问题,提出了一种基于 debaised lasso 的通信高效估计方法,能够在高维空间中学习线性预测器,并与最佳集中式方法相媲美。
Oct, 2015
本文是多任务学习的一篇综述,主要介绍了在分布式数据和网络系统上学习多个相关任务的新策略以及合作规则如何促进不同任务相关性模型,同时也解释了如何和何时合作的方式比非合作的策略更有效。
Jan, 2020
提出了一种正则化公式,用于在多任务学习中学习任务之间的关系,可以对正相关、负相关和异常任务进行建模,在对称和非对称多任务学习设置下,使用交替优化算法, 对模型参数和任务之间的关系进行优化。实验结果表明这种方法的有效性。
Mar, 2012
研究了在多个机器学习一个未知的低维子空间中具有共享表示的分布式多任务学习问题,通过高效通信的方法来利用共享结构。
Mar, 2016
采用多目标优化的方法,考虑梯度的时间行为,创建一个动态偏差,利用多任务学习的相关性来提高性能和泛化性能,并确保所有任务达到良好的泛化性能。
Apr, 2022
本文综述了多任务学习的算法建模、任务聚类及半监督学习、真实世界应用等方面,并探讨其理论分析和未来方向。
Jul, 2017
本文提出了一种多目标优化的多任务学习方法,通过迭代传递模型参数在优化过程中解决存在冲突的多个任务,并在图像分类、场景理解和多目标回归问题中进行了实验验证,结果显示该方法显著提升了发现满足 Pareto 优化的模型集合的状态,尤其在大规模图像数据集上的实验中,比现有技术取得了近两倍的超体积收敛速度。
Mar, 2024
本文提出了一种创新的关系多任务学习框架 MetaLink,通过建立连接数据点和任务的知识图谱,利用来自辅助任务的数据点标签预测新任务中的结果,可以在不同领域的 6 个基准数据集上成功地利用不同任务之间的关系,在提出的关系多任务学习设置下,可以优于现有方法,ROC AUC 性能提高了高达 27%。
Mar, 2023
描述了一个客户端 - 服务器体系结构,该体系结构可以同时处理分布式数据集中的多个学习任务。该体系结构的目标是从多个数据集进行信息融合,同时保护个体数据的隐私。所提出的算法框架基于正则化理论和核方法,并使用适当的混合效应内核。该方法通过模拟音乐推荐系统进行了说明。
Dec, 2008