CANIFE: 为联邦学习制作金丝雀进行实证隐私测量
我们展示了在不同类型的数据上,客户端数量和差分隐私机制的增加对模型性能的影响的实证基准,结果显示在分布式和差分隐私设置中,非独立同分布和小数据集的性能降低最为显著。
Feb, 2024
提出了一种具有差分隐私保证的通信高效的联邦学习训练算法,采用二进制神经网络 (BNNs) 并引入离散噪声以实现客户级别的隐私保护。通过实验证明,该算法在保证隐私的同时,实现了较低的通信开销和性能提升。
Aug, 2023
通过个性化差分隐私框架和考虑各种异构性和属性调整的方法,该论文提出了一种高效地保护隐私的个性化差分隐私框架,并对联邦学习算法的收敛边界进行了分析,同时进一步研究了考虑时间变化的个性化因素的收敛性质。
Jun, 2024
使用联邦学习和差分隐私技术来保护隐私,同时采用 PEU、LoRA 和 NCE 等技术来降低大模型的噪声和内存需求,从而成功地在计算受限设备上训练大词汇量的语言模型。
Jul, 2022
移动设备、隐私、实用性、联邦学习和差分隐私是该研究的主要关键词,研究通过在联邦学习中采用差分隐私的实验环境并使用基准数据集来探讨隐私与实用性之间的平衡问题。
Nov, 2023
本篇论文提出了一种名为 Fed-SMP 的新型差分隐私联邦学习方案,该方案采用 Sparsified Model Perturbation (SMP) 技术,在保持高模型准确性的同时,提供客户端级差分隐私保证,并使用 Renyi DP 提供紧密的隐私分析,并证明了 Fed-SMP 收敛性,通过实验数据证明了 Fed-SMP 提高了模型准确性并同时节省通信成本。
Feb, 2022
本文研究了使用不同 ially private way(DPFL)提供认证的鲁棒性来保护 Federated learning(FL)算法中存在的隐私泄露问题,包括提出了可提高实例级的隐私机制,并在用户和实例级别提供了二项认证标准来证明 DPFL 的认证鲁棒性。
Sep, 2022
通过采用自适应噪声添加技术,我们提出了一种针对联邦学习的改进方案,根据特征的相对重要性决定注入噪声的数值,以平衡隐私和模型准确性的关系。实验证实了在一定条件下,通过慎重选择参数,可以提高隐私保护而减少模型性能的损失。
Jan, 2024
本文研究基于联邦学习的隐私保护问题,提出了一种局部差分隐私机制,以解决当前机制存在的噪声数据接近原始值、估计平均数的方差过大和深度学习模型权重维数高导致隐私预算过大的问题。实验结果表明,该机制不仅具有优异的深度学习性能,而且能够提供强大的隐私保证。
Jul, 2020