通过本地适配挽救联合学习
本文提出了一种基于联邦学习的机器学习分布式范例,可以在保护隐私的前提下进行多方联合重新训练共享模型,并通过用户级领域自适应来提高模型精度,实验结果表明在为FL模型强制实施差分隐私界限时,该技术可以更大程度地提升模型的准确性。
Dec, 2019
本文研究了如何使用差分隐私技术来保护联邦学习中的隐私和鲁棒性,评估了局部差分隐私(LDP)和中心差分隐私(CDP)技术的可行性和有效性。实验证明,这两个差分隐私技术都可以有效防止后门攻击,并且较其他鲁棒性防御更加有效。同时,差分隐私还可以减轻白盒成员推理攻击。然而,这两个技术都无法防御属性推理攻击。
Sep, 2020
本文介绍了一种名为PFA的新框架,旨在以联邦方式实现更好的个性化结果。PFA利用神经网络的稀疏性生成隐私保护表示,并使用这些表示来高效识别具有相似数据分布的客户端,从而进行分组并在联邦模型上进行群体式联邦学习来完成自适应过程。该框架能够保障客户端隐私,并在多个FL数据集上通过实验证明了其有效性和优越性。
Mar, 2021
本文提出了一种叫做FedAlign的基于局部学习广泛性而非接近约束的数据异构性联邦学习解决方案,其可在不引入大量计算和内存开销的情况下实现与最先进的FL方法相当的精度。
Nov, 2021
研究分布式机器学习系统,并基于修正的随机优化算法实现私人级联学习,在保证局部模型私密性的同时,与全局模型进行协调,提升了准确性和隐私保护的平衡。
Feb, 2022
通过从新的角度,即什么在联邦学习中共享,以模型效用、隐私泄露和通信效率为重点,系统调查了联邦学习方法的新分类、隐私攻击的脆弱性以及不同共享方法的性能与隐私保护的效力,并讨论了当前方法存在的潜在缺陷和未来改进的方向。
Jul, 2023
Upcycled-FL是一种新颖的联邦学习框架,应用在每个偶数迭代中的一阶逼近,以在保持隐私的同时提高隐私-准确性平衡,并通过引入扰动机制来保护隐私。实验表明,Upcycled-FL在异构数据上持续优于现有方法,并且平均减少48%的训练时间。
Oct, 2023
提出了一个统一的框架FLea,通过鼓励客户端交换隐私保护特征来解决过拟合和局部偏差问题,从而提升本地模型的学习效果,实验证明FLea在共享模型参数方面优于现有领先的联邦学习方法高达17.6%,而在共享数据增强方面优于联邦学习方法高达6.3%,同时降低了与共享数据增强相关的隐私漏洞。
Dec, 2023
通过提出联邦私有局部训练算法(Fed-PLT),本文解决了联邦学习中昂贵的通信和隐私保护等挑战,通过局部参与和训练,在中央协调员和计算代理之间显著减少通信轮次,实现了局部训练对准确性的无影响匹配。同时,代理具有从不同局部训练求解器中选择的灵活性,如(随机)梯度下降和加速梯度下降,还探讨了如何利用局部训练来增强隐私,并推导了差分隐私边界及其与局部训练轮次的依赖关系,通过理论分析和分类任务的数值结果与其他技术进行比较,评估了所提算法的有效性。
Mar, 2024