机器学习的贝叶斯差分隐私
本论文利用差分隐私算法对分布式和流数据进行分析,通过学习全局数据模型并保障差分隐私,提出了三种分布式学习贝叶斯网络模型的新方法,并针对流数据中的用户密度估计问题,提供了用户级别的隐私保护算法和改进策略。
Jul, 2023
文章介绍了差分隐私的优点及其在交互式查询的数据使用中的应用,同时指出了其局限性,强调需要注意其在个人数据采集、发布以及机器学习等领域中的滥用。
Nov, 2020
本文概述了隐私保护的形式定义 Differential Privacy 在数据处理中提供严格保证的重要思想、概念和应用,特别关注它在机器学习和联邦学习领域的交叉应用。
May, 2022
本论文提出新的算法技术,包括隐私成本的细化分析,并在差分隐私框架下进行。 实验结果表明:我们可以在较小的隐私成本下训练具有非凸目标的深度神经网络,而且在软件复杂性、训练效率和模型质量上具有可管理的成本。
Jul, 2016
我们综合研究引入了贝叶斯隐私并深入探讨了局部差分隐私及其贝叶斯对应之间错综复杂的关系,揭示了新的有关效用和隐私之间的权衡。
Mar, 2024
我们通过对改进的 DPML 算法的效用和防御能力对成员推断攻击进行了整体度量,在图像分类任务中我们首次提出了具有机器学习生命周期其中改进的分类法的分类体系。我们通过使用实验来表明了 DP 能够有效地抵御成员推断攻击,并且敏感性绑定技术,如每个样本梯度剪辑,在防御中起着重要作用。 标签 DP 算法可以实现较小的效用损失,但对攻击十分脆弱。我们的研究结果可以支持数据拥有者使用 DPMLBench 部署 DPML 算法,并作为研究人员和实践者的基准工具。
May, 2023
本文研究的 DP-SGD 算法在训练神经网络时,由于梯度裁剪和噪声加法等机制对复杂和少数类样本的影响更大,造成训练模型的准确率不公平,使 DP-SGD 算法不适用于存在不平衡类别数据的训练任务。
May, 2019
本文提出了一种新的用于保护数据隐私的方法,即使用贝叶斯推理本身提供对数据的私密访问,并利用后验采样来实现差分隐私和数据效用的平衡。同时,我们提出一般的差分隐私度量方法,使得适用范围更广泛,能够处理非 i.i.d 数据和非表格形式的数据集,并在套用路易斯界限法时得到更好的下界。
Jun, 2013
在实际数据中进行差分隐私学习存在挑战:隐私保证难以解释,对私有数据进行的超参数调整会降低隐私预算,通常需要进行特殊的隐私攻击来测试模型的隐私性。本文提出了三种工具来使差分隐私机器学习更加实用:(1)可在训练前以集中方式进行的简单的健全性检查,(2)自适应裁剪边界来减少可调隐私参数的有效数量,(3)大批量训练可以提高模型性能。
Dec, 2018