基于区块链的拜占庭 - 稳健联邦学习 (BRLF) 模型通过与区块链技术的结合,解决了联邦学习中的资源消耗问题,并在公共数据集上验证了我们安全聚合算法相对于其他基线算法在抗拜占庭攻击方面的优越性,证明了我们提出的模型的有效性。
Oct, 2023
通过消除既有集中式联邦学习范式中汇总本地模型的服务器,将被称为 P2P FL 的方法应运而生,然而,P2P FL 容易受到善意但好奇的参与者和可以发出任意篡改的拜占庭参与者的攻击,本文提出了一种名为 Brave 的协议,以确保 P2P FL 在这两种类型的对手存在下同时保证了拜占庭容错和隐私保留的性质,并通过对 CIFAR10 和 MNIST 数据集上的图像分类任务进行评估,结果表明 Brave 可在对手存在的情况下实现与无对手存在时相当的分类准确性。
Jan, 2024
FLTrust 是一种新的联邦学习方法,它通过服务提供商收集干净的培训数据集来引导信任,对客户端的本地模型更新进行信任评分,并进行标准化处理,从而降低了来自恶意客户端的影响,最终计算加权平均并用于更新全局模型。
Dec, 2020
本文提出了一种在恶意 / 拜占庭客户端存在的情况下使用本地迭代的随机梯度下降(SGD)算法来解决联邦学习的问题,通过使用高维鲁棒均值估计算法来过滤出异常向量并得出收敛结果和分析。
Jun, 2020
本文介绍了一种名为自适应联邦平均的新型算法,该算法利用隐藏马尔可夫模型来检测参与者在训练期间提供的模型更新质量,并提出一种鲁棒聚合规则以检测和丢弃每次训练迭代中的不良或恶意本地模型更新以及阻止不需要的参与者,从而在处理噪声、故障和恶意参与者时具有更高的鲁棒性和计算效率。
Sep, 2019
ByITFL 是第一个具备全信息论隐私的拜占庭容错方案,通过拉格朗日码计算、可验证的秘密共享和重新随机化步骤,实现了分布式的、保护隐私的计算。
May, 2024
本文介绍了一个基于轻量级加密和数据混淆的联邦学习系统,结合恰当的带宽效率优化和对云服务器主动攻击的安全保护机制,在保证客户端数据隐私的前提下,整合来自多源的数据进行联合训练,并在多项数据集(MNIST、CIFAR-10、CelebA)上验证该系统的可行性及精度。
Feb, 2022
FedTruth 是一种针对 FL 中的模型污染问题的鲁棒防御方法,通过动态聚合权重估计全局模型更新,考虑了所有良性客户的贡献,并在实证研究中证明了其对拜占庭攻击和后门攻击的毒化更新的影响有很好的缓解效果。
Nov, 2023
本文提出了一种解决联邦学习中隐私和拜占庭容错性的算法,通过使用差分隐私随机梯度下降算法保护隐私,并应用拜占庭容错算法,最终实现高精度和拜占庭攻击的抵抗。
Apr, 2023
我们提出了一种名为 BALANCE 的新算法,通过本地相似性在去中心化中进行拜占庭 - 鲁棒的均值计算,以抵御毒化攻击,并在强凸和非凸设置中建立了 BALANCE 在毒化攻击下的理论收敛保证,大量实验证明 BALANCE 优于现有的分布式联邦学习方法并有效地抵御毒化攻击。
Jun, 2024