分散式多任务学习的精确子空间传输
研究分布式在线学习算法在静态和非静态环境下的泛化能力,推导连通学习者网络中每个节点达到的超额风险界限并研究扩散策略相对于个体非合作处理的性能优势。通过广泛的模拟来说明结果。
Jan, 2013
本文用于分析分布式情况下的非线性滤波问题,提出了一种针对多任务场景的基于核的算法,并对其进行了模拟基准测试,最后详细说明了目前尚未解决的问题和未来的研究方向。
Apr, 2017
本研究探讨了在大规模数据集和大维特征空间场景下的学习问题,通过考虑网络中代理人传播的特征信息,并提出了一种新颖的动态扩散构造、管道策略和方差减少技术相结合的分布式学习算法,能够实现在原始域中的线性收敛和全局最小值解。
May, 2018
研究了非线性现象$m$的扩散式网络学习问题,提出了一种非参数学习算法,仅需要局部代理的测量,并且仅仅在相邻节点之间进行信息传播。所提出的方式得到了非渐近估计误差界,通过模拟实验,展示了它的潜在应用。
May, 2023
我们在一个能够通过网络与邻居交换信息的设定中研究多任务在线学习。我们介绍了一种分散算法 $ exttt{MT-CO}_2 exttt{OL}$,其遗憾度取决于任务相似性和网络结构之间的相互作用。我们的分析表明,$ exttt{MT-CO}_2 exttt{OL}$的遗憾度(在常数范围内)永远不会比没有信息共享的情况更糟。另一方面,在邻近代理在相似任务上操作时,我们的边界显著改进。此外,我们证明了当损失是线性的时候,我们的算法可以以微不足道的遗憾影响实现差分隐私。最后,我们提供对我们理论的实验支持。
Oct, 2023
本研究解决了在异质和/或相关数据流下的多线性模型估计任务的分布式多任务学习方案。通过在有向网络拓扑中,将节点划分为不同的学习任务组,研究提出了全局和局部正则化方法,以提高噪声减少和泛化性能。该方法在随机场温度估计和不同学区学生表现建模中的实际应用显示了其重要性和广泛性。
Oct, 2024
本研究解决了在有限通信条件下,分布式深度学习中的梯度聚合效率问题。通过将聚合过程视为目标导向的子空间优化问题,提出了一种新的加权方案并引入子空间动量,以加快收敛速度,同时保持聚合的统计无偏性。实验结果表明,该方法在多个机器学习任务上优于传统的梯度平均方法,具有更高的效率。
Nov, 2024