- ICML当用户选择时从流式数据中学习
在由许多竞争服务组成的数字市场中,用户根据自己的偏好在多个服务提供商之间进行选择,所选择的服务利用用户数据来逐步改进其模型。服务提供商的模型影响用户在下一个时间步选择的服务,而用户的选择反过来又影响模型更新,从而形成了一个反馈循环。本文对上 - 去中心化联邦蒸馏的收敛可视化器与降低通信成本
通过分布式学习算法,在功能空间中使神经网络模型接近,解决共识式多跳联邦蒸馏中的通信成本降低和模型收敛可视化的两个挑战。
- 通过核化多臂赌博机进行分布式优化
该研究论文提出了一种基于分布式优化和多臂赌博算法 (Multi-armed bandit) 的全分散算法 (Multi-agent IGP-UCB),以最小化代理间的遗憾值,并在保护隐私的同时提供了改进的性能。
- 多任务在线学习:聆听邻域嗡嗡声
我们在一个能够通过网络与邻居交换信息的设定中研究多任务在线学习。我们介绍了一种分散算法 $ exttt {MT-CO}_2 exttt {OL}$,其遗憾度取决于任务相似性和网络结构之间的相互作用。我们的分析表明,$ exttt {MT-C - WassersteinBarycenter 问题的异步去中心化算法
本文提出了一种基于异步去中心化算法的 novel stochastic block coordinate descent 方法 (A^2DWB),用于优化经验正则化 WBP 的对偶问题,实验结果验证了它相对于最新的同步算法具有卓越的性能。
- 用于复合非凸强凹极小极大问题的分散梯度下降最大化方法
本研究提出了一种基于去除双重共识规范的新颖分散极小极大问题重建方法,可以解决具有较高非光滑性和复杂性的问题,通过数值实验表明,所提出的算法具有较高的性能和效率。
- 通过函数逼近证明的高效去中心化多智能体强化学习
提出了第一种能够在分布式系统下使用函数逼近算法解决多代理强化学习的方法,此算法总能输出马尔可夫序列最优解,并且实现了根据多样性相关均衡(CCE)找到Ɛ- 最优解的最优速率,同时,还提出了一种能够在多样性相关均衡(CCE)中找到策略类受限一致 - AAAI分散式随机多人多臂行走赌博机
提出了一种解决多人多臂赌博机问题的分布式算法,利用上置信区间和分布式优化技术,解决了现实世界应用中玩家仅能访问动态局部子集的问题,并获得了接近最优的后悔率。
- 通用和随机博弈纳什均衡学习的去中心化策略梯度
研究了一种具有未知转移概率密度函数的一般和随机游戏的纳什平衡学习。介绍一种加权渐近纳什均衡的概念,并提出了两种算法,一种是针对精确伪梯度的,另一种是针对未知伪梯度的。
- 无限时段竞争马尔可夫博弈中分散乐观梯度下降 / 上升的最后迭代收敛
研究无穷时间折扣二人零和马尔可夫博弈,开发了一种分散算法,自我对弈时能够收敛到 Nash 均衡点。
- 多智能体信任区域策略优化
该研究将信任区域策略优化(TRPO)扩展到多智能体强化学习(MARL)问题,提出了一种基于分布式共识优化问题的去中心化 MARL 算法 MATRPO,该算法能够基于本地观察和私人奖励优化分布式策略,实现完全的去中心化和保护隐私。实验表明,M - ICLR基于压缩的线性收敛分散式优化
本文提出第一个具有压缩功能的 LDA 算法,并验证了算法的实用性和收敛速度。
- 分散式有限和优化的最优算法
本文提出了一种名为 ADFS 的高效分布式算法,利用局部碰撞更新和节点之间的分布式通信,在单机上运行时比现代加速随机算法要慢,但在 n 个机器上最小化目标函数与在一个机器上 m 个样本的最优算法相同的时间内完成。我们证明了 ADFS 是分散 - 具有加速收敛的方差缩减分散随机优化
本文提出一种名为 GTVR 的随机分散算法框架,其基于本地方差缩减和全局梯度跟踪的技术,用于解决大规模,有可能无法集中处理私有数据的优化问题。我们在本文中重点研究了 GTVR 并介绍了两种算法 GT-SAGA 和 GT-SVRG,证明它们在 - 多智能体多臂赌博机中的社交学习
介绍了一个分布式算法来解决多臂赌博机问题,通过异步交换较少的比特数,在不进行样本交换的情况下,仅通过传递臂 ID 来维护代理之间的合作;文中提出的算法可以将每个代理的后悔最小化,并将通信复杂度降至 $O (logT)$,与不进行合作的方案相 - 去中心化协作随机赌博机
本文研究了多臂赌博机问题在网络上的去中心化协作,采用加速一致性过程来计算所有智能体对每个臂的平均奖励,该算法采用上置信区间来决策,能够达到更好的回归界,同时不需要过多的底层网络信息。
- SIC-MMAB: 多人多臂赌博机中涉及通讯的同步
通过构建一种通信协议,使多个玩家之间出现冲突以便以极低成本共享信息的方式,我们提出了一种分散式算法,可实现与集中式一样的性能,以解决基于认知无线电网络的随机多人多臂赌博问题;当通信协议不能实现时,我们介绍了更适当的动态设置,并基于新算法证明 - 网络中非光滑分布式优化的最优算法
研究分布式优化的算法,提出了多步原始 - 对偶(MSPD)算法及其收敛率,证明了在局部正则性假设下,通信网络的结构仅对 $O (1/t)$ 的次要项产生影响。同时,提出了基于局部平滑的分布式随机平滑(DRS)算法在全局正则性假设下,其收敛速 - 个性化和私密的点对点机器学习
本文提出了一种高效的分散式(点对点)和异步算法来解决个性化模型的学习,同时满足强隐私要求,并证明了它的收敛速率。我们展示了如何使算法往常差异保持私密以保护个人数据集的信息披露,并正式分析了效用和隐私之间的权衡。实验结果表明,在非私密约束下, - 网络上个性化模型的分散协作学习
本论文研究了一组学习代理在协作对等网络中,每个代理根据自己的学习目标学习个性化模型。本文介绍和分析了两种异步流言算法,以完全分散的方式运行。我们的第一种方法旨在在网络上平滑预训练的本地模型,同时考虑每个代理在其初始模型中的置信度。在我们的第