BriefGPT.xyz
Ask
alpha
关键词
decentralized optimization methods
搜索结果 - 4
数据异构下去中心化学习的本地更新有效性
在本文中,我们研究了两种基础的分散式优化方法:分散式梯度跟踪(DGT)和分散式梯度下降(DGD),并考虑了多次本地更新。我们证明了增加本地更新步骤可以降低通信复杂性,并揭示了通信与计算之间的权衡关系。在数据异质性较低且网络连接良好时,增加本
→
PDF
3 months ago
去中心化稀疏联邦学习:带有普适收敛保证的统一方法
分散式联邦学习的 DSpodFL 方法通过模拟现实环境中的不同异质性形式来泛化间歇性,实现了更快的训练速度和对系统参数变化的鲁棒性。
PDF
5 months ago
随机链路故障下的分散式多任务在线凸优化
在这篇论文中,我们研究了分散式多任务在线凸优化中的随机链路故障问题,并针对这个问题开发了一个鲁棒的分散式鞍点算法,通过使用最新接收到的邻居决策来替代丢失的决策。通过严谨地界定由此替代引起的累积偏差,我们首先证明了我们的算法在完全信息情况下达
→
PDF
6 months ago
自适应异步更新的容错分散式学习
研究提出了一种全分散的 DSGD-AAU 算法,通过自适应确定每个工作者与多少邻居工作者进行通信,实现了线性加速收敛,实验结果验证了理论结果。
PDF
a year ago
Prev
Next