联邦学习中的隐私保护聚合:一项调研
该论文提出并实现了一种基于隐私保护联合学习(PPFL)的框架,旨在通过利用受信任的执行环境(TEEs)对客户端进行本地训练,通过 TEEs 对服务器进行安全聚合,从而在联合学习中限制隐私泄漏,并达到显著的隐私保护与可比较的模型效用提升。
Apr, 2021
移动设备、隐私、实用性、联邦学习和差分隐私是该研究的主要关键词,研究通过在联邦学习中采用差分隐私的实验环境并使用基准数据集来探讨隐私与实用性之间的平衡问题。
Nov, 2023
通过引入 APPFLx,实现跨领域隐私保护联邦学习作为一种服务的平台,并采用 Globus 认证,实现容易且安全地邀请值得信赖的合作者进行隐私保护联邦学习,并实现多种同步和异步的联邦学习算法,简化联邦学习实验启动过程,实现联邦学习实验的生命周期跟踪和可视化,使领域专家和机器学习从业者能够在一个平台上轻松协调和评估跨领域联邦学习。
Aug, 2023
在本文中,我们基于联邦学习的范式,通过使用规范模型来捕捉异质人群的基本特征并利用会员向量揭示客户的偏好,开发了一个灵活且可解释的个性化框架 PPFL(Population Personalized Federated Learning),并探索了与多任务 PFL、聚类 FL 和解耦 PFL 三个主要分支的关系,证明了 PPFL 的优势。我们提出了一个新颖的随机块坐标下降算法来解决 PPFL(一个非凸约束优化问题)并给出了收敛性质。通过在病理数据集和实际数据集上进行实验,结果验证了 PPFL 的有效性。
Oct, 2023
分布式学习中的联邦学习存在安全和隐私挑战,本研究针对各类机器学习模型,包括大型语言模型,提出了安全和隐私挑战的综合分类,重点关注聚合器和参与者的攻击,包括投毒攻击、后门攻击、成员推断攻击、生成对抗网络攻击和差分隐私攻击,同时提出了未来研究的新方向,旨在强化联邦学习系统以应对新兴安全风险并保护分布式学习环境中的敏感数据隐私。
Jul, 2023
物联网网络和数据处理技术的发展对分布式学习方法中的联邦学习具有巨大潜力,本论文通过两个实例展示了联邦学习在物联网网络中实现高效和保护隐私的机器学习的潜力,并通过模拟研究了隐私和准确性之间的权衡关系。
Dec, 2023
利用区块链和差分隐私技术,提出一种隐私保护的基于区块链的联邦学习模型(PPBFL),以增强联邦学习的安全性并促进节点在模型训练中的积极参与。通过将模型参数存储在 IPFS 中,区块链确保模型参数不会被篡改,并同时采用一种新颖的自适应差分隐私添加算法来保护本地模型和全局模型的隐私,以防止大量本地模型对全局模型安全性的影响。此外,引入了一种新的混合交易机制,以更好地保护本地训练客户的身份隐私。安全分析和实验结果表明,PPBFL 在模型性能和安全性方面优于基线方法。
Jan, 2024
本文综述了科学界在采用区块链增强的联邦学习场景下定义隐私解决方案所做的研究工作,包括对联邦学习和区块链的背景进行全面总结,评估现有的整合架构以及确保隐私的主要攻击和可能的对策,最后回顾了应用联邦学习增强的区块链在主要应用场景中取得的成果,为学术界和工业界的从业者提供了有助于提升联邦学习性能的理论和技术,同时指出了在这个新颖且尚未充分开发的领域中的主要挑战和未来方向。
Jan, 2024