- MM拜占庭稳健的分散式联邦学习
我们提出了一种名为 BALANCE 的新算法,通过本地相似性在去中心化中进行拜占庭 - 鲁棒的均值计算,以抵御毒化攻击,并在强凸和非凸设置中建立了 BALANCE 在毒化攻击下的理论收敛保证,大量实验证明 BALANCE 优于现有的分布式联 - 去中心化个性化联邦学习
通过在分散式联邦学习中创建协作图,选择适合的合作方,从而解决数据异构性和通信限制带来的挑战。我们的方法通过一种新颖的、通信高效的策略来解决这些问题,提高资源效率。与传统方法不同,我们的方法通过考虑客户的组合关系在粒度级别上识别合作伙伴,增强 - 不完善通信信道上的分散式联邦学习
本研究分析了不完美通信渠道对分散式联邦学习(D-FL)的影响,并确定了每轮训练的最佳本地汇总次数,以适应网络拓扑和不完美通道。通过从需要完美通道和汇总的理想全局模型中推导出具有不完美通道的本地汇总 D-FL 模型的偏差,揭示了过多的本地汇总 - 基于条件稀疏到更稀疏方案的去中心化个性化联邦学习
提出了一种新颖的 DA-DPFL 稀疏到更稀疏的训练方案,通过动态聚合逐渐减少模型参数,从而在保留关键学习期间的足够信息的同时实现了能耗大幅降低,并在测试准确性上明显优于 DFL 基准。
- 受能量和延迟约束的自适应分散式联邦学习
在分布式学习中,为了解决参数聚合带来的通信开销和单点故障问题,本论文研究了如何有效利用有限资源以提高模型性能。我们通过优化本地训练轮次的数量和节能聚合方案,提出了一个解决方案,该方案在不同设备上实现了更好的性能表现,并消耗比传统聚合方案更少 - 去中心化稀疏联邦学习:带有普适收敛保证的统一方法
分散式联邦学习的 DSpodFL 方法通过模拟现实环境中的不同异质性形式来泛化间歇性,实现了更快的训练速度和对系统参数变化的鲁棒性。
- 分散联邦学习:安全与隐私的综述
去中心化联邦学习中的威胁变体、对手、潜在的防御机制、可信度和可验证性的研究。
- 异构去中心化联邦学习下的拓扑学习及不可靠的 D2D 网络
在无线设备到设备(D2D)网络中,去中心化联邦学习(DFL)作为智能移动设备普及的产物引起了极大的兴趣。DFL 相对于集中式联邦学习(CFL)降低了由于通信瓶颈而导致的中央服务器故障的风险。然而,DFL 面临着许多挑战,如多样环境中数据分布 - zkFDL:一种高效且隐私保护的分散式联邦学习方案与零知识证明
基于零知识证明的聚合器 (zkDFL) 使用区块链技术管理聚合算法,以验证进程正确性、增强隐私保护和可扩展性,同时显著降低了燃气成本。
- 分散式联邦学习的调度和通信方案
分布式机器学习模式中的分布式学习是指许多客户端与中央服务器协同工作,以学习模型而无需共享自己的训练数据。本文介绍了一种采用随机梯度下降算法的分散式联邦学习(DFL)模型,作为一种更可伸缩的方法,以改善带有任意拓扑结构的代理网络中的学习性能。 - 去中心化联邦学习的竞争优势攻击
分散联邦学习(DFL)使得客户(如医院和银行)在没有中央编排服务器的情况下共同训练机器学习模型。在每个全局训练轮次中,每个客户在自己的训练数据上训练本地模型,然后交换本地模型进行聚合。在本文中,我们提出了 SelfishAttack,一种新 - Sentinel:一种保护去中心化联邦学习的聚合函数
Sentinel 是一种用于对抗分布式联邦学习中的恶意攻击的防御策略,提供了一种基于本地数据的三步聚合协议,包括相似性过滤、引导验证和归一化,以提高对无目标和有目标恶意攻击的防御性能。
- 基于区块链的安全分散式学习
提出了基于区块链的分布式联邦学习(BDFL),利用区块链进行分散化模型验证和审计,包括审核委员会、激励机制、信誉模型和动态网络更新协议。评估结果表明,BDFL 在存在 30%恶意客户端的系统中,通过信誉机制实现了快速模型收敛和高准确性。
- 非对称分散式联邦学习
基于不对称拓扑结构和 Push-Sum 协议,DFedSGPSM 算法以解决共识优化问题为目标,结合 Sharpness Aware Minimization(SAM)优化器和本地动量,提高算法性能并减轻联邦学习中的本地异质过拟合问题。理论 - 一位压缩感知的通信高效去中心化联邦学习
本文提出了一种基于不精确的交替方向法方法的新算法,在分散节点之间训练共享模型的过程中实现了稀疏约束、通信效率和计算效率的改进。
- DFedADMM:分散式联邦学习的双约束控制模型不一致性
通过使用新的 DFL 算法,DFedADMM 和 DFedADMM-SAM,我们解决了去中心化联邦学习中的局部一致性和局部异构过拟合的问题,并在 MNIST、CIFAR10 和 CIFAR100 数据集上验证了算法在泛化性能和收敛速度方面的 - 无线网络上资源受限去中心化联邦学习的性能分析
通过比较数字和模拟传输过程,分析了资源受限分散式联邦学习在通信效率方面的性能,并讨论了通信条件下如何优化系统参数以提高性能。
- 路由驱动的分散联邦学习的模型训练
在分散式联邦学习中,Tram-FL 方法通过逐个传递全局模型而非交换和聚合本地模型,在最小转发的同时提高模型精度,并在非独立同分布数据下实现高模型准确度和较低通信成本。
- 基于区块链的医疗元宇宙联邦学习:以用户为中心的激励机制与最佳数据新鲜度
为了解决构建医疗元宇宙面临的关键挑战,本文设计了一个以用户为中心的隐私保护框架,基于去中心化的联邦学习用于医疗元宇宙。此框架通过跨链架构提供分布式、隐私保护和安全的数据训练,并利用信息时代和期望理论构建数据时效度量和激励机制,以提供更好的医 - 通过移动目标防御减轻分散联合学习中的通信威胁
这篇论文通过揭示分散式联邦学习(DFL)通信潜在风险,介绍一种专为 DFL 平台设计的安全模块,结合对称和非对称加密以及移动目标防御(MTD)技术,有效地应对通信攻击,并通过实验证实了该安全模块的有效性。