分布式多任务学习
本文提出了一种基于参数服务器的分布式多任务学习框架,通过提供正则化多任务关系学习方法的对偶形式和一个通信有效的原始对偶分布式优化算法来同时学习每个任务的预测模型和任务之间的关系,以及提供针对分布式多任务关系学习的理论收敛分析。
Dec, 2016
本文是多任务学习的一篇综述,主要介绍了在分布式数据和网络系统上学习多个相关任务的新策略以及合作规则如何促进不同任务相关性模型,同时也解释了如何和何时合作的方式比非合作的策略更有效。
Jan, 2020
本文提出了一种分布式和异步优化的多任务学习框架,该框架能够有效地解决数据存储在不同地点时的挑战,同时能够提高多任务学习模型的泛化性能。实证研究表明本文提出的方法在合成和实际数据集上均表现出高效和有效的性能。
Sep, 2016
本文研究了在分布式设备网络上训练机器学习模型所面临的统计和系统挑战,提出了一种适用于多任务学习的优化方法 MOCHA,并在考虑通信成本、慢设备和容错性等实际系统问题的前提下,实现了比替代方法更显著的加速效果。
May, 2017
本研究探讨了在大规模数据集和大维特征空间场景下的学习问题,通过考虑网络中代理人传播的特征信息,并提出了一种新颖的动态扩散构造、管道策略和方差减少技术相结合的分布式学习算法,能够实现在原始域中的线性收敛和全局最小值解。
May, 2018
本文提供了一种解决异步网络上多任务问题的模型,它采用多任务扩散 LMS 算法以协作的方式同时推断多个参数向量,并描述了详细的均方误差分析,该算法在充足步长的条件下保证稳定和性能,并将其应用于光谱感知的特定应用中。
Dec, 2014
本文提出了一种新的分布式训练线性分类器的方法,旨在减少通信成本,在迭代期间每个节点最小化局部形成的近似目标函数,然后合并得到下降方向移动,该方法可以看作是迭代参数混合法。
Oct, 2013