针对差分隐私的攻击感知噪声校准
本文针对高维情况下的差分隐私数据分析算法中的高斯机制,提出了一种经过优化的高斯机制,通过解决其方差在隐私程度较高和较低的限制,直接利用高斯累积分布函数进行方差校准,采用基于自适应估计技术的后处理步骤实现抑噪,实验证明该方法相比于经典高斯机制,能减少至少三分之一的噪声方差,并且在高维情境下能够显著提高其精确性。
May, 2018
本文着重研究了隐私预算的问题,提出了一套训练范式,通过调整噪声比例,使更多的噪声能被纳入隐私预算,从而在保护隐私和维护计算效用之间提供一种更好的平衡方案。
Oct, 2021
本文提出了一种采用差分隐私机制的数据推断攻击防御方法,通过调节一个参数,即隐私预算,处理成员推断和模型反演两种类型的攻击。该方法能够保持分类精度,并通过修改和标准化置信度得分矢量来保护成员隐私信息。实验结果表明,该方法对于成员推断和模型反演两种攻击是一种有效且及时的防御方法,不影响模型分类准确度。
Mar, 2022
通过 DP-CERT 框架结合随机平滑技术和差分隐私模型训练,同时提供隐私和认证鲁棒性,从而在 CIFAR10 数据集上显著提高了模型的认证准确性和认证半径。
Jun, 2023
介绍了Epsilon*,一种新的隐私度量方法,用于衡量在隐私保护策略的部署之前、期间或之后单个模型实例的隐私风险。该度量不需要访问训练数据抽样或模型训练算法。
Jul, 2023
在数据为中心的时代里,随着机器学习对个人信息的依赖越来越大,对隐私和道德数据处理的关切也越来越多。本实证研究探讨了联邦学习框架中深度学习模型在存在加性噪声的情况下的隐私、泛化和稳定性。我们的主要目标是提供一些衡量这些模型的泛化、稳定性和保护隐私能力的策略,并进一步改进它们。为此,我们在集中化和联邦学习设置下探索了五种不同噪声水平的噪声注入机制。由于模型复杂性是训练和评估期间深度学习模型的泛化性和稳定性的关键组成部分,我们对三种卷积神经网络架构进行了比较分析。本文引入了信噪比(SNR)作为噪声注入模型的隐私和训练准确性之间权衡的定量度量,旨在寻找提供最佳隐私和准确性的噪声水平。此外,我们定义了稳定性代价和无序性代价这两个概念,以加强保护隐私的深度学习的系统性研究,为增强隐私而不损害性能的噪声注入策略提供了贡献。我们的研究揭示了隐私、泛化和稳定性之间微妙的平衡关系,促进对基于噪声正则化机器学习的影响的深入理解。通过将噪声作为正则化和隐私增强的工具,我们旨在为开发强大的、注重隐私的算法做出贡献,确保人工智能驱动的解决方案将效用和隐私优先考虑。
Nov, 2023
通过采用自适应噪声添加技术,我们提出了一种针对联邦学习的改进方案,根据特征的相对重要性决定注入噪声的数值,以平衡隐私和模型准确性的关系。实验证实了在一定条件下,通过慎重选择参数,可以提高隐私保护而减少模型性能的损失。
Jan, 2024
在差分隐私机器学习中,我们引入了度量机制之间差分隐私保护强度的$\Delta$-散度,并在$(\varepsilon, \delta)$、$f$-DP和贝叶斯解释方面加以解释。通过应用实例,我们展示了我们的技术可以促进明智的决策,并揭示了差分隐私隐患中的差距。
Jun, 2024
使用差分隐私和加噪声的方法对机器学习模型进行训练,通过对模型的权重添加噪声来实现隐私和效用的平衡,并通过实验证明了该方法的有效性,为在实际场景中部署差分隐私模型提供了一种实用的替代方案。
Jun, 2024