迭代式隐私放大
本研究介绍一种新的方法,可通过随机抽样来提高差分隐私机制提供的隐私保证。该方法利用程序验证社区中出现的差分隐私特征,引入高级联合凸性和隐私概况等新工具,既可恢复和改进以往的分析,也可推导出新的隐私扩增实例。
Jul, 2018
这篇论文通过建立 “迭代的隐私放大” 现象的统一框架,改进了先前分析的方法,有效地量化了差分隐私算法的隐私泄露,并扩展到各种设置和概念中,进而在 strongly convex optimization 领域中实现了第一个精确的隐私分析。
Mar, 2024
本文研究了随机后处理如何放大机制的隐私性,提出了用 Markov 操作的均匀混合属性和耦合论来界定隐私保障的方法,并通过热力学法分析扩散过程机制的隐私性,此外还应用于噪声 SGD,展示其能在强凸问题上有指数级的改进。
May, 2019
本文介绍了一种模块化方法,可以最小化对训练算法的更改,提供各种隐私机制的配置策略,并隔离和简化计算最终隐私保证的关键逻辑,以解决在隐私敏感数据集上训练机器学习模型所面临的实际挑战。
Dec, 2018
我们研究了一种私有的凸性目标 ADMM 变种,它是一种原始 - 对偶迭代方法。每次迭代都有一个用户使用私有函数来更新原始变量,通过加入高斯噪声来保证本地隐私,而无需直接给对偶变量添加噪声。通过迭代进行隐私放大,可以探索是否后续迭代中的噪声能够增强在最后一次迭代后释放最终变量时的隐私保证。我们的主要结果是,梯度 ADMM 变体的隐私保证可以与迭代次数成比例地放大,对于强凸目标函数,这种放大随迭代次数呈指数增长。
Dec, 2023
本文研究了本地差分隐私模型下敏感统计信息的收集,提出了一种算法,其隐私成本与用户值的更改数量的对数成正比。通过匿名化用户报告,基于用户报告的匿名性,我们还展示了当以中心式差分隐私模型来看待时,我们的 LDP 算法的隐私成本实际上会更低。通过新的隐私放大技术,我们证明了任何置换不变的算法,满足 ε 局部差分隐私的同时,也会满足(O(ε sqrt {log(1/δ)/n)},δ)中心差分隐私。作为实际的推论,我们的研究结果表明,几个基于 LDP 的工业部署的隐私成本会比它们宣传的 ε 值所表示的要低得多,至少是在报告经过匿名化的情况下。
Nov, 2018
本论文提出新的算法技术,包括隐私成本的细化分析,并在差分隐私框架下进行。 实验结果表明:我们可以在较小的隐私成本下训练具有非凸目标的深度神经网络,而且在软件复杂性、训练效率和模型质量上具有可管理的成本。
Jul, 2016