- 高效通信与隐私保护的分散化元学习
在这篇论文中,我们提出了一种名为 LoDMeta(本地分布式元学习)的方法,利用本地辅助优化参数和模型参数的随机扰动来降低通信成本并提高数据隐私保护。理论结果和实证结果都表明,LoDMeta 与集中式元学习算法相比具有相似的元学习准确性,但 - 集体深度学习的有效理论
我们通过对于耦合的人工神经网络系统中集体学习的出现进行解析,引入了一个最小模型,通过考虑每个神经网络单元参数的本地学习动态和单元之间的扩散耦合之间的竞争来凝结几个最近的分散算法。
- ICML协作多智体异构多臂赌博机
研究多人合作多智能体赌博问题,提出一种新的多人合作环境,并利用分散式演算法促进代理之间的合作,推导每个代理的累积遗憾度和群体的遗憾度上下限,并证明了该算法的近似最优行为。
- 去中心化双层优化
研究了分散设置下非凸强凸双层优化问题,在确定性和随机双层优化问题上设计了分散算法。分析了算法的收敛速度,包括在代理间观察到数据异构性的情况。通过对合成和真实数据的数值实验表明,所提出的方法是有效的。
- 基于结构匹配市场的去中心化、无需通信和协调的学习
在双边撮合市场中,我们研究了竞争环境下在线学习的问题,如一方的代理人必须通过重复互动了解对另一方的企业的偏好,并与其他代理人竞争成功匹配。我们提出了一类分散、不需要协调的算法,代理人可以使用该算法在结构化匹配市场中达到稳定匹配,其决策仅基于 - 更接近现实:带有不完美通信的协同 Bandit 算法
本文探讨了协作强盗问题在现实世界通信环境下的三种典型情景,并提出了相应的去中心化算法来实现可比性能并且保证产生小组遗憾次数接近最优解,同时提出了对于完美通信情况下的改进算法,最后给出了群体遗憾的最紧密的网络相关极小极大下限。
- BlueFog:使分布式算法在优化和深度学习中变得实用
该论文介绍了一种名为 BlueFog 的 Python 库,用于实现分布式算法的简便高效方法,从而达到高吞吐量和比 Horovod 更快的 DNN 训练任务的结果。
- DESTRESS:计算最优和通信高效的分散非凸有限和优化
本文研究非凸有限和优化中的去中心化算法,通过局部损失函数的累加最小化来匹配中心化算法的一阶马鞍点,并提供 DEcentralized STochastic REcurSive gradient methodS(DESTRESS)的算法来实现 - MM多智能体自然演员 - 评论强化学习算法
本研究提出三种完全分散的自然 Actor Critic (MAN)算法,具有全局收敛性和在交通网络中降低平均拥堵率的实际应用。
- 匹配市场中去中心化赌机的超过 log^2 (T) 的遗憾
该研究设计了一种分散的算法模型,用于在双方匹配市场中实现遗憾最小化和一面策略反馈。
- 具有网络代理的完全分散的多代理强化学习
本文提出了两种具有函数逼近的分布式学习算法来解决网络智能体的多智能体强化学习问题,这两个算法均为完全去中心化的 Actor-Critic 算法,能够应用于大规模多智能体学习问题中,并在模拟实验中验证了算法的有效性和可收敛性。
- 多人赌博机问题再探
本文探讨了多层次反馈的多人多臂老虎机算法,并在不需要感知信息的情况下引入了一种被称为自私的有希望的启发式方法以适应与物联网网络的应用。研究结果显示,引入这些方法可以提高算法的性能并保证其渐近最优,降低拥堵的可能性。
- 分散式演算法是否能超越中央集中式演算法?以分散式平行隨機梯度下降為例的個案研究
本文研究了去中心化 PSGD 算法的理论复杂度,表明相比于其优化的集中式对应物,去中心化算法在低带宽或高延迟网络配置中可以快上一个数量级,并且需要更少的通信成本。
- 网络中平滑且强凸分布式优化的最优算法
该论文在两个设置中确定了强凸和光滑分布式优化的最优收敛速率:中央集权和去中心化通信。对于中央集权算法,作者表明分布式 Nesterov 加速梯度下降算法是最优的。对于基于流言蜚语 (gossip) 的去中心化算法,作者提供了第一个最优算法 - 非凸分散梯度下降
本研究探讨了去中心化算法在非凸一致优化中的应用和属性,特别针对非光滑函数和非凸集的情况,提出了 Prox-DGD 算法,通过现有的 convex setting 证明其误差收敛性。