本文详细阐述了联邦学习的体系结构、应用问题、算法设计原则和安全问题,提出了一种更加通用的算法设计框架、攻击场景和防御方法,致力于将联邦学习与真实世界应用相集成并实现高性能、隐私保护和安全性。
Feb, 2023
通过模拟结果,本文分析了联邦学习中的隐私和安全问题并提出了保护数据隐私的挑战。
Sep, 2019
通过实现隐私保障和最终模型准确性之间的平衡,本文研究了何时以及如何设计一种对所有参与者都有利的联邦学习协议,并给出了在均值估计和凸随机优化等背景下存在互惠协议的必要和充分条件。此外,本文还设计了最大化最终模型准确性的协议,并通过合成实验验证了其优势。
Mar, 2024
在这篇综述性论文中,作者重点介绍基于联邦学习的系统在应对恶意攻击、保障隐私方面所面临的问题,特别关注如何提高系统鲁棒性和隐私保护措施。
Dec, 2020
深度学习和联邦学习是当前研究的重点,其中涉及隐私保护技术、隐私攻击以及隐私法规的探讨。
May, 2024
本综述论文研究了个性化联邦学习(PFL)的领域,着重解决异构数据带来的基本问题,通过分类和分析 PFL 技术,提出其关键挑战和机会,并展望了未来研究的发展方向。
Mar, 2021
该论文提出了一个方法,通过使用密码学技术和高效的模型管理,来增强联邦学习系统中数据的来源和模型的透明度,旨在增强训练后模型的可重现性和可信度,从而解决数据一致性和解释性的问题。
本文提供了一种简洁的介绍联邦学习的概念,并使用一个唯一的分类法来涵盖针对联邦学习的威胁模型和两个主要的攻击方法:1) 污染攻击和 2) 推理攻击,探讨了向更强大的隐私保护方向发展的有前途的未来研究方向.
Mar, 2020
我们介绍了关于从联邦语言模型中泄露隐私敏感用户数据的两个新发现:一是中间轮次的模型快照可能引起比最终训练模型更严重的隐私泄露,二是通过篡改模型的选择权重,可以加剧隐私泄露,并显示了恶意客户端如何在联邦学习中泄露某个其他用户的隐私敏感数据,甚至无需服务器的任何合作。我们的最佳方法提高了成员推理召回率 29%,可达到 70% 的私密数据重构,显然优于现有的攻击方法,其对对手能力有更强的假设。
Oct, 2023
分布式学习中的联邦学习存在安全和隐私挑战,本研究针对各类机器学习模型,包括大型语言模型,提出了安全和隐私挑战的综合分类,重点关注聚合器和参与者的攻击,包括投毒攻击、后门攻击、成员推断攻击、生成对抗网络攻击和差分隐私攻击,同时提出了未来研究的新方向,旨在强化联邦学习系统以应对新兴安全风险并保护分布式学习环境中的敏感数据隐私。
Jul, 2023