- 打破安全聚合:联邦学习中通过聚合梯度泄漏标签
提出一种隐蔽标签推断攻击绕过安全聚合从而恢复个体客户的私有标签,并通过理论分析和实验证明该攻击可以在各种数据集和模型架构上以 100%的准确性实现大规模标签恢复。
- EncCluster: 通过权重聚类和概率过滤在联邦学习中实现可扩展的功能加密
EncCluster 是一种新方法,通过权重聚类与最近的去中心化 FE 和增强隐私数据编码相结合,提供强大的隐私保证,同时不影响模型性能或增加客户端负担,并通过减少通信成本和加速加密来提高效率。
- RFLPA:一种抵御污染攻击的鲁棒联邦学习框架并具有安全聚合
我们提出了一种基于安全聚合协议的抵御毒化攻击的强韧联邦学习框架(RFLPA),该框架通过计算本地更新和服务器更新之间的余弦相似度来进行鲁棒聚合。此外,我们利用可验证的打包 Shamir 秘密共享来实现每个用户的通信成本降低为 O(M + N - 去中心化学习中的安全聚合与稀疏化相遇
分布式学习面临隐私泄露的问题,本论文引入了一种新的安全聚合协议 CESAR,通过与现有的稀疏化机制相兼容,提高了通信效率,同时对抗恶意和好奇的对手。实验证明 CESAR 在并行随机梯度下降中保持很高的准确性,而仅增加 11% 的数据开销,并 - 无加噪差分隐私联邦学习:何时可行?
通过在集成模型更新中引入内在的随机性来减少为实现差分隐私所需的额外噪音量,以提供安全聚合的联邦学习 (Federated Learning) 为主题的研究论文。
- FedMPQ:具有多编码本产品量化的安全和通信高效的联邦学习
在本研究中,我们提出了一种名为 FedMPQ 的新型上行通信压缩方法,它基于多共享码本乘积量化。通过利用前一轮的更新来生成足够强健的码本,我们实现了安全聚合。与以往的方法相比,我们的方法在数据不独立且分布不一致(non-IID)且缺乏足够的 - 安全聚合无法抵御成员推断攻击
在这篇论文中,我们通过将其视为每个本地更新的局部差分隐私机制,深入探讨了 SecAgg 的隐私影响。我们设计了一种简单的攻击方式,其中一个对抗性的服务器试图在 SecAgg 下的单一训练轮中辨别客户端提交的两个可能的更新向量之一。通过进行隐 - 流畅:用于私人联邦学习的轮效安全聚合
FL 解决隐私攻击的 communication-efficient 的 secure aggregation 方案 Fluent,实验结果显示 Fluent 提高了普通客户端的计算成本至少 75%,通信开销至少 25%,并通过引入动态客户 - 楚箕弩:联邦学习中多轮安全聚合的可靠、高效和匿名认证实现
通过可靠和匿名认证的多轮安全聚合,解决现有安全聚合方案的可靠性和身份认证问题,Chu-ko-nu 可以为联邦学习提供可靠的匿名认证聚合,同时降低至少 21.02% 的聚合成本。
- 低成本零知识证明的安全可验证数据协作
我们提出了一种新颖且高效的解决方案 RiseFL,用于安全和可验证的数据协作,同时确保输入的隐私和完整性。
- Flamingo:多轮单服务器安全聚合及私有联邦学习应用
Flamingo 是一个用于安全聚合大量客户端数据的系统,专注于多轮设置中的联邦学习,引入了轻量级的 dropout 容错协议并提出了一种新的客户端选择方式,从而减少客户端与服务器之间的交互次数并大大降低整个训练过程的运行时间。
- ICML自动调优压缩的私有联邦学习
提出了一种新的技术,用于在私有联邦学习中降低通信量,而无需设置或调整压缩率。我们的实时方法根据训练过程中引入的误差自动调整压缩率,同时通过使用安全聚合和差分隐私保证可证明的隐私保护。我们的技术在均值估计中可以证明是最优的,这意味着它们可以根 - 联邦学习中高效且具有多重私密性的安全聚合算法
为了解决隐私泄漏等问题,我们提出了一种用于联邦学习的高效多私钥安全聚合方案,使用修饰版 ElGamal 加密技术实现同态加法操作,加密性能高,同时能够保证数据的安全性,具有容错性。
- ICML联邦学习中安全聚合的样本重新 ATTRIBUTION 攻击(SRATTA)
在跨部门的联邦学习模式中使用 SRATTA 攻击方法能容易地使数据被泄露并对模型安全形成威胁,而为了保证隐私,我们需要采取一些积极的防御措施。
- 安全聚合的高效垂直联邦学习
本文提出了一种使用最先进的安全模块进行安全和高效的垂直联邦学习的新方法,与同态加密(HE)相比,该方法提供了 9.1e2〜3.8e4 的加速,同时不影响训练性能。
- 使用 FedGT 平衡联邦学习中的隐私和安全:一种分组测试框架
提出了 FedGT,一种检测联邦学习中恶意客户的新型架构,该架构通过利用客户的重叠组来检测恶意客户的存在并通过解码操作来识别它们。该架构在保护数据隐私的同时实现了提高检测能力和保障安全,通过在剩余客户上进行模型训练,成功地从中识别出带有低误 - 使用 DecentralizePy 轻松实现去中心化学习
本文提出了一个名为 DecentralizePy 的分布式框架,用于在任意拓扑结构下仿真大规模的去中心化学习网络,展示了在不同拓扑结构及节点数量下的去中心化学习所需的技术,包括剪枝和安全聚合。
- CVPR联邦学习中使用线性层泄露攻击的资源问题
在联邦学习中,通过攻击聚合更新的方法进行数据泄漏,而过去的工作都将聚合更新视为一个更大的 batch,由此导致了一定的资源开销。该研究提出了从多个单独的更新数据中攻击聚合数据的角度,并引入了稀疏性的概念,以减少模型大小和计算时间的开销以及维 - 在联邦学习中协调安全性和通信效率
本文解决了跨设备联邦学习中通信效率问题并提出了一种基于安全聚合的压缩方法,使得在保证通信安全的前提下能够实现高效联邦学习。
- 差分隐私联邦学习中安全聚合的基本价格
本文提出了一种基于稀疏随机投影的线性方案,用于训练具有分布式差分隐私的 $d$ 维模型,以保证训练轮次中服务器只看到 $n$ 个模型更新的带噪声和,并评估了这种方案的通信成本。在真实的隐私设置中,该方法可以在不降低测试性能的情况下显著减少通