本文介绍联邦学习作为一种分布式机器学习方法,提出自适应联邦优化算法和其他一些想法,并通过实验展示了在性能上的改进。
Nov, 2022
本论文旨在提供针对联邦优化算法的具体指导和实用实现,重点关注进行有效模拟以推断实际效果,并鼓励研究人员设计适用于各种实际应用的联邦学习算法。
Jul, 2021
去中心化联邦学习中的威胁变体、对手、潜在的防御机制、可信度和可验证性的研究。
Jan, 2024
此论文使用多目标进化算法优化神经网络模型的结构,以同时减少通信成本和全局模型测试误差,提高联邦学习的学习性能和效率。
Dec, 2018
我们提出了一个新的去中心化个性化在线联邦学习设置,用于在在线环境中学习,在每个客户端上学习个性化模型,并在去中心化环境中学习。我们解决了两个技术挑战:如何通过优化本地模型的性能来聚合来自邻近客户端的共享模型参数,并通过学习的聚合权重选择最有帮助的邻居减少通信成本。
Nov, 2023
介绍了一种分布式机器学习的新技术 - 联邦优化。该技术针对数据分布不均、节点数量极大的情况,通过让本地的移动设备参与计算,以更新全局模型。该研究提出了一种适用于该技术的新算法,并展示了其在实验中的优异表现。
Nov, 2015
本文介绍联邦学习的独特特征和挑战,提供当前方法的概述,并概述了与各种研究社区相关的几个未来方向。
Aug, 2019
本文介绍了一种在图上进行全面分散联合学习的算法,通过本地更新和节点间通信的交替,实现了在不丢失解决方案优化的情况下显著减少参数通信轮次的目的,数值模拟结果表明该算法与传统方法相比,具有较高的性能优势。
Dec, 2019
本研究提出了一种称为联邦优化的新的分布式机器学习设置,其中优化定义的数据分布在大量节点之间,通过少量通信轮次训练高品质集中模型,本文提出的新算法对于稀疏凸问题的实验结果表现可圈可点,并为未来的联邦优化研究提供了借鉴。
Oct, 2016
图形联邦学习在多种场景中都有广泛的应用,需要更多的数据隐私保护。这篇研究论文提出了一种基于去中心化框架以及节点间数据相似性的图形联邦学习方法,通过线性加权聚合节点的梯度信息,实验证明该方法的有效性优于其他方法。
Jul, 2023