关于在线模型选择与分散数据的合作必要性
在线模型选择是从一组候选模型中‘即时’选择一个模型来对数据流进行预测。本论文提出了一种在线联邦模型选择框架,其中一组学习者与具有足够内存的服务器进行交互,服务器存储所有候选模型。然而,每个学习者只选择将适合其内存的一部分模型存储,并使用其中一个存储的模型执行自己的预测任务。此外,使用该算法,学习者和服务器合作对模型进行微调以使其适应非稳态环境。理论分析证明了该算法相对于后知模型具有次线性损失。对真实数据集的实验表明了该算法的有效性。
Jan, 2024
我们研究了面对自适应对手时的分布式在线和掷骰机凸优化问题。我们旨在在 $M$ 个并行工作的机器上通过 $T$ 轮和 $R$ 次间歇通信来最小化平均遗憾。在假设底层成本函数是凸函数并且可以自适应生成的情况下,我们的研究结果表明,在机器能够访问所查询点的一阶梯度信息时,合作是没有益处的。这与对于随机函数的情况形成了对比,其中每台机器从固定分布中抽样成本函数。此外,我们深入研究了带有掷骰机(零阶)反馈的联邦在线优化更具挑战性的情况,在该情况下,机器只能访问所查询点的成本函数值。这里的关键发现是确定合作有益且甚至可能导致机器数量的线性加速的高维度情况。我们通过开发新的分布式单点和双点反馈算法,进一步说明了我们的研究结果在联邦对抗线性掷骰机中的应用。我们的工作是对限制反馈的联邦在线优化的系统理解的首次尝试,并在间歇通信情况下获得了一阶和零阶反馈的严格遗憾界。因此,我们的研究填补了联邦在线优化中随机和自适应环境之间的差距。
Nov, 2023
基于多核学习的在线非线性函数逼近,通过联邦学习在分布在不同客户端之间的数据上训练多核模型;提出一种算法框架,允许客户端以可负担的通信成本与服务器进行通信,并利用随机特征近似提出可扩展的在线联邦多核学习算法。实验证明,与其他在线联邦核学习算法相比,该算法具有显著优势。
Nov, 2023
一种考虑了分散式机器学习和数据保护的联邦学习方式,通过构建本地图和局部连接来训练个人的、个性化的非线性模型,实现了低通讯成本和对数据的隐私保护。
Jan, 2019
在这篇论文中,我们研究了分散式多任务在线凸优化中的随机链路故障问题,并针对这个问题开发了一个鲁棒的分散式鞍点算法,通过使用最新接收到的邻居决策来替代丢失的决策。通过严谨地界定由此替代引起的累积偏差,我们首先证明了我们的算法在完全信息情况下达到了 O (√T) 的遗憾和 O (T^(3/4)) 的约束违规程度,这里每个时间段结束时,每个代理都能够获取到有关本地成本函数的完整信息。然后,我们将算法和分析扩展到两点赌博反馈方案,其中每个代理顺序地只披露本地成本函数在两个随机点上的值。推导出了与完全信息情况相同阶级的性能界限。最后,通过数值模拟验证了所提出算法和分析结果的有效性。
Jan, 2024
本文研究了基于分布式数据源的在线学习,提出了一种新的算法,可以保障网络中的隐私。该算法使用通信网络中的本地数据源更新本地参数,并且在网络中的一个小子集周期性地交换信息。我们导出了强凸函数的遗憾界,我们的算法有内在的隐私保护性质,且证明了网络中的隐私保护的必要和充分条件。
Jun, 2010
本文提出了一种基于联邦学习模式下的多智能体最优化问题解决方案,运用受限的通信方式,实现了对多个目标的追踪,避免了碰撞发生,并在两个相关应用上进行了数量级和碰撞性能的分析。
Jun, 2023
本文提出了一种基于聚合局部策略和双重稳健离线策略评估和学习策略的联邦策略学习算法,并针对异构数据源的观测数据情况,在不交换原始数据的情况下,在中央服务器上学习分布于异构数据源上的决策政策。
May, 2023
我们在一个能够通过网络与邻居交换信息的设定中研究多任务在线学习。我们介绍了一种分散算法 $ exttt {MT-CO}_2 exttt {OL}$,其遗憾度取决于任务相似性和网络结构之间的相互作用。我们的分析表明,$ exttt {MT-CO}_2 exttt {OL}$ 的遗憾度(在常数范围内)永远不会比没有信息共享的情况更糟。另一方面,在邻近代理在相似任务上操作时,我们的边界显著改进。此外,我们证明了当损失是线性的时候,我们的算法可以以微不足道的遗憾影响实现差分隐私。最后,我们提供对我们理论的实验支持。
Oct, 2023
在线学习通过表示学习和联合协作 UCB 算法、理论分析、仿真研究以及去中心化认知退化监测在阿尔茨海默病中展示了显著的潜力,以动态分配有限资源以监测大量的进程,有效平衡产生高奖励的进程的利用和不确定进程的探索。
May, 2024