- 在联邦环境中的可分解子模函数最大化
提出了一种联邦优化设置的分解可分模函数的优化方法,使用连续贪婪算法在客户端和中央服务器之间进行并行小步骤的局部优化,通过抽样和定期聚合来减少通信成本,并展示了如何与最大覆盖和设施位置等离散分解模最优化问题相结合。
- 高效沟通的联邦非线性赌博机优化
我们提出了一种名为 Fed-GO-UCB 的新算法,用于具有通用非线性目标函数的联邦赌博优化问题,通过严格证明,Fed-GO-UCB 能够以次线性速率实现累积遗憾和通信成本。
- 减小自适应无偏客户抽样的方差以探索联邦优化
提出了一种自适应客户端采样的新方法 K-Vib,可以在不需要额外的本地通信和计算的情况下,构建可靠的全局估计,从而提高联邦优化的性能。
- 使用轨迹信息的联邦式零阶优化
基于轨迹信息的梯度替代物的联邦零阶优化算法 (FZooS) 通过减少函数查询次数和改进通信效率来提高联邦优化中的效果。
- 一个安全的联邦数据驱动进化多目标优化算法
本文提出了一种安全的联邦数据驱动进化多目标优化算法,可保护隐私并增强安全性,在联邦数据驱动进化优化的性能方面只有可忽略的牺牲。
- ICML标签分布偏斜下的逻辑回归校准联邦学习
本文研究联邦学习中的标签分布偏斜问题,通过引入 FedLC 方法实现了基于标签分布偏差较小的联邦优化,实验证明该方法可以提高全局模型的准确性和性能。
- ICMLFedNest: 联邦双层、极小极大和组合优化
本文提出了一种名为 edblo 的联邦交替随机梯度方法,用于解决复杂的嵌套双层规划问题,并在异构数据情况下建立了收敛性分析,同时提出了多种升级方法,包括联邦超梯度计算和方差缩减,实验结果表明其在超参和超表示学习和最小化最大化规划中具有实际 - 解决异构联邦优化中的目标不一致问题
本文为联邦异构优化提供了一个通用的框架,分析了算法的收敛性,解决了不同本地数据集和计算速度引起的目标不一致性问题,并提出了 FedNova 方法,实现了快速错误收敛并消除了目标不一致性。
- 随机分布式均值估计:准确性与通信
本文研究如何在分布式计算环境中在通信成本约束下,适应一系列随机化算法以在预期的通信成本和估计误差之间进行权衡,实现对一组向量的平均值估计,为分布式优化和学习算法中的 reduce-all 操作提供了一种解决方案。
- 联邦优化:面向设备智能的分布式机器学习
本研究提出了一种称为联邦优化的新的分布式机器学习设置,其中优化定义的数据分布在大量节点之间,通过少量通信轮次训练高品质集中模型,本文提出的新算法对于稀疏凸问题的实验结果表现可圈可点,并为未来的联邦优化研究提供了借鉴。
- NIPS联邦优化:超越数据中心的分布式优化
介绍了一种分布式机器学习的新技术 - 联邦优化。该技术针对数据分布不均、节点数量极大的情况,通过让本地的移动设备参与计算,以更新全局模型。该研究提出了一种适用于该技术的新算法,并展示了其在实验中的优异表现。