分布式特征下的监督学习
研究分布式在线学习算法在静态和非静态环境下的泛化能力,推导连通学习者网络中每个节点达到的超额风险界限并研究扩散策略相对于个体非合作处理的性能优势。通过广泛的模拟来说明结果。
Jan, 2013
本文用于分析分布式情况下的非线性滤波问题,提出了一种针对多任务场景的基于核的算法,并对其进行了模拟基准测试,最后详细说明了目前尚未解决的问题和未来的研究方向。
Apr, 2017
该论文提出了一种针对分布式学习的新方法,该分布式学习方法使用多任务学习中的精确扩散算法,可在具有不同目标或数据的代理之间建立关系,而无需强制执行共识机制。经过数值验证表明,该算法表现比基于近似投影的传统算法更好。
Apr, 2023
研究了非线性现象$m$的扩散式网络学习问题,提出了一种非参数学习算法,仅需要局部代理的测量,并且仅仅在相邻节点之间进行信息传播。所提出的方式得到了非渐近估计误差界,通过模拟实验,展示了它的潜在应用。
May, 2023
在多智能体系统中,为解决分布式学习问题,本研究提出了一种名为DOT-ADMM的算法,通过在线学习、异步智能体计算、不稳定与受限通信以及近似本地计算等方法,保证了算法的收敛性和稳健性。
Sep, 2023
分布式学习问题中,通过在网络上交换信息,代理可以最小化全局目标函数。我们的方法具有两个显著特点:只在必要时触发通信以大幅减少通信量,并且对于不同代理的本地数据分布置之不理。我们分析了算法的收敛速度并在凸设置中导出了加速收敛速率。我们还表征了通信丢失的影响,证明了我们的算法对通信故障具有鲁棒性。文章最后提供了分布式LASSO问题、MNIST数据集和CIFAR-10数据集上的分布式学习任务的数值结果。实验结果强调了基于事件的通信策略带来的50%或更多的通信节省,展示出对异构数据分布的韧性,并凸显我们的方法优于FedAvg、FedProx和FedADMM等基线方法。
May, 2024
分布式继续学习研究了多智能体在其环境中独立面对独特任务并逐步开发和分享知识的交叉点。通过引入数学框架,捕捉了分布式继续学习的关键方面,包括智能体模型和统计异质性、持续分布转移、网络拓扑和通信限制。我们提出了三种信息交换模式:数据实例,完整模型参数和模块化(部分)模型参数,并对每种共享模式开发了相应的算法,并在各种数据集、拓扑结构和通信限制下进行了广泛的实证研究。我们的研究结果揭示了三个关键见解:随着任务的复杂化,参数共享比数据共享更加高效;模块化参数共享在最小化通信成本的同时,提供了最佳性能;结合多种共享模式可以累积改善性能。
May, 2024