概念漂移中的分布式在线分类
本文研究了基于分布式数据源的在线学习,提出了一种新的算法,可以保障网络中的隐私。该算法使用通信网络中的本地数据源更新本地参数,并且在网络中的一个小子集周期性地交换信息。我们导出了强凸函数的遗憾界,我们的算法有内在的隐私保护性质,且证明了网络中的隐私保护的必要和充分条件。
Jun, 2010
本文提出了一种新的分布式在线学习框架,将学习者建模为合作的情境赌博机,分析了分布式在线学习算法和完全知识基准的效率,研究表明后者在时间上失误是亚线性的,该理论框架可用于许多实际应用中,包括大数据挖掘、监视传感器网络事件检测和分布式在线推荐系统。
Aug, 2013
我们提出了一种新颖的扩散方案,用于在网络上进行基于内核的在线学习,通过使用Random Fourier Features,将解决方案近似为固定大小的向量,并提供了渐近收敛和网络遗憾的限制条件。
Mar, 2017
本研究探讨了在大规模数据集和大维特征空间场景下的学习问题,通过考虑网络中代理人传播的特征信息,并提出了一种新颖的动态扩散构造、管道策略和方差减少技术相结合的分布式学习算法,能够实现在原始域中的线性收敛和全局最小值解。
May, 2018
该论文提出了一种针对分布式学习的新方法,该分布式学习方法使用多任务学习中的精确扩散算法,可在具有不同目标或数据的代理之间建立关系,而无需强制执行共识机制。经过数值验证表明,该算法表现比基于近似投影的传统算法更好。
Apr, 2023
在多智能体系统中,为解决分布式学习问题,本研究提出了一种名为DOT-ADMM的算法,通过在线学习、异步智能体计算、不稳定与受限通信以及近似本地计算等方法,保证了算法的收敛性和稳健性。
Sep, 2023
该论文提出了一个理论框架,用于评估和比较梯度下降算法在非凸环境中围绕局部极小值的行为方面的分布学习性能。它发现分散学习策略能够更快地逃离局部极小值并更有利地收敛到更平坦的极小值,从而提高了分类准确性。
Jun, 2024