保密联邦计算
本文提出了一种基于离散高斯和安全聚合的训练模型方法,以保护私有数据。通过数据量化和添加离散高斯噪音,能够实现通信、隐私和准确性之间的复杂平衡,此方法在少于16位精度的情况下几乎能匹配集中式差分隐私的准确性水平。
Feb, 2021
该论文提出并实现了一种基于隐私保护联合学习(PPFL)的框架,旨在通过利用受信任的执行环境(TEEs)对客户端进行本地训练,通过TEEs对服务器进行安全聚合,从而在联合学习中限制隐私泄漏,并达到显著的隐私保护与可比较的模型效用提升。
Apr, 2021
SCOTCH是一种分散式多方安全計算架構,可以在分散式學習上實現強隱私保護且具有低通信開銷以及良好的性能,通过在神经网络上实现有效的差分隐私,同时可以在MNIST和ExtendedMNIST(数字)数据集上分别实现96.57%和98.40%的准确率。
Jan, 2022
本研究提出了一种新的基于分布式差分隐私的隐私保护联合学习方法,其可以有效避免联合攻击,以及“Sybil”攻击,并给出了相应的安全性证明。在模拟的 5000 个分布式网络客户端上的实验结果表明,该协议执行速度快,学习准确率高,且具有良好的隐私保护性能。
Feb, 2022
该文介绍了基于TEE的安全计算协议的系统性评估和比较,提出了一种将安全计算协议分类的方法,并讨论了TEE的特定计算功能,如隐私保护机器学习和加密数据库查询等。该文是第一篇对TEE的安全计算协议进行全面比较的综述性文章,比较结果可作为实践中选择合适协议的指南,同时还探讨了未来的研究方向和挑战。
Feb, 2023
我们重新审视了针对私人统计和私有联邦学习的可扩展协议设计问题,提出了一种简单的原语,允许有效实现多个常用算法,并实现了接近集中式设置中的隐私计算,而无需其所需的强烈信任假设。其次,我们提出了一个实现此原语的系统架构,并对所提议的系统进行了安全性分析。
Jul, 2023
提出了基于差分隐私机制的稀疏化和动量驱动的方差减少方法,以防御拜占庭攻击,并保证演算法的客户端隐私保障。通过与现有方法的比较实验证明了该框架提高了系统的强韧性,并取得了较强的隐私保证。
Sep, 2023
我们提出了一种基于Berrut近似编码计算的解决方案,用于同时解决联邦学习中的隐私问题和非线性函数计算以及分布式矩阵乘法的问题。该解决方案适用于各种联邦学习场景,并在隐私和精度之间找到了一个良好的平衡。
May, 2024
Federated Learning with Update Digest (FLUD) is a novel framework that ensures privacy preservation, resistance to Byzantine attacks, and reduced overhead through the use of the LinfSample method and optimized SMPC protocols.
May, 2024
本研究针对联邦学习中隐私保护不足的问题展开,探讨了现有对于噪声联邦差分隐私分析的局限性。通过引入 f-DP 分析方法,论文证明了 Noisy-FedAvg 方法在隐私保护中的收敛下界,以及 Noisy-FedProx 方法的稳定隐私下界,为联邦学习的隐私保护提供了理论支持,并可推广应用至其他差分隐私分析框架。
Aug, 2024