带有无噪差分隐私的联邦模型蒸馏
本文提出一种名为 FedND 的新型联邦学习算法,采用知识蒸馏优化模型训练过程,并在客户端使用自我蒸馏方法进行本地模型训练,在服务器端生成噪声样本用于蒸馏其他客户端,最终通过聚合本地模型获得全局模型,实验结果表明该算法不仅达到最佳性能,而且比现有的算法更具通信效率。
Jun, 2023
通过采用自适应噪声添加技术,我们提出了一种针对联邦学习的改进方案,根据特征的相对重要性决定注入噪声的数值,以平衡隐私和模型准确性的关系。实验证实了在一定条件下,通过慎重选择参数,可以提高隐私保护而减少模型性能的损失。
Jan, 2024
通过个性化差分隐私框架和考虑各种异构性和属性调整的方法,该论文提出了一种高效地保护隐私的个性化差分隐私框架,并对联邦学习算法的收敛边界进行了分析,同时进一步研究了考虑时间变化的个性化因素的收敛性质。
Jun, 2024
本文研究基于联邦学习的隐私保护问题,提出了一种局部差分隐私机制,以解决当前机制存在的噪声数据接近原始值、估计平均数的方差过大和深度学习模型权重维数高导致隐私预算过大的问题。实验结果表明,该机制不仅具有优异的深度学习性能,而且能够提供强大的隐私保证。
Jul, 2020
LDP-Fed 是一个具有正式隐私保证的新型联邦学习系统,使用本地差分隐私(LDP),有别于现有的 LDP 协议,其可以处理来自参与者的高维连续值参数。
Jun, 2020
在联邦学习中,差分隐私被用于保护数据隐私和提高模型效用,然而,在具有异质性要求和客户端批次 / 数据集大小差异的情况下,传统的聚合策略会降低效用。本文提出了一种名为 Robust-HDP 的方法,通过有效估计客户端模型更新中的噪声水平并显著减少聚合模型更新中的噪声水平,来提高效用和收敛速度,并对客户端的恶意行为进行安全处理。实验结果和理论分析验证了 Robust-HDP 的有效性。
Jun, 2024
我们展示了在不同类型的数据上,客户端数量和差分隐私机制的增加对模型性能的影响的实证基准,结果显示在分布式和差分隐私设置中,非独立同分布和小数据集的性能降低最为显著。
Feb, 2024
采用微分隐私概念,提出一种在模型聚合之前加入人工噪音的差分隐私框架,证明该框架可以在不同保护级别下满足差分隐私。同时,优化了聚合轮数、系统总参与用户数和随机选取的用户数,实现了在不同隐私保护和性能要求下的隐私保护联邦学习算法设计,并通过仿真实验证明了该理论的正确性。
Nov, 2019
在神经网络中,联邦学习的性能通常受到数据分布的异构性的影响。本研究提出了一种新的联邦学习框架,配备了去中心化知识蒸馏(FedDKD)的过程,通过分布在本地的局部模型来训练全球模型,可以更有效地拟合神经网络映射平均值,来克服权重计算问题。实验证明,FedDKD 在一些极度异构的数据集上表现出更高的效率和更好的训练结果,优于现有的联邦学习算法。
May, 2022