基于梯度训练的差分隐私和遗忘的证明
将 “被遗忘的权利” 作为用户数据隐私的法律保证变得日益重要。机器遗忘旨在高效地从训练模型参数中去除特定数据点的影响,以便与从头开始重新训练模型时近似相同。本文提出了基于噪声随机梯度下降(SGD)的随机梯度 Langevin 遗忘框架,为凸性假设下的近似遗忘问题提供了带有隐私保证的第一个遗忘方法。我们的研究结果表明,与全批次更新相比,小批次梯度更新提供了更好的隐私 - 复杂性权衡。我们的遗忘方法具有许多算法上的优势,包括与重新训练相比的复杂性节省,以及支持顺序和批次遗忘。为了研究我们方法的隐私 - 效用 - 复杂性权衡,我们在基准数据集上进行了实验,与之前的工作进行了比较。相比于小批次和全批次设置下基于梯度的近似遗忘方法,我们的方法在相同隐私限制条件下使用了 2% 和 10% 的梯度计算,同时达到了类似的效用。
Mar, 2024
基于噪声梯度下降的兰格文反训练为近似反训练问题提供隐私保证,将 DP 学习过程与隐私认证的反训练过程统一,具有多种算法优势,包括非凸问题的近似认证的反训练、与重新训练相比的复杂性节约、用于多个反训练请求的顺序和批量反训练。通过在基准数据集上进行实验验证了兰格文反训练的实用性和隐私 - 效用 - 复杂性的权衡,并展示了其相对于基于梯度下降加输出扰动的近似反训练的优越性。
Jan, 2024
本论文提出新的算法技术,包括隐私成本的细化分析,并在差分隐私框架下进行。 实验结果表明:我们可以在较小的隐私成本下训练具有非凸目标的深度神经网络,而且在软件复杂性、训练效率和模型质量上具有可管理的成本。
Jul, 2016
面对分布变化的复杂机器遗忘问题,特别关注非均匀特征和标签删除带来的挑战,本研究提出了一种基于影响函数和分布独立原理的新方法,以解决隐私保护和模型性能之间的平衡,通过在多样分布下维护模型的性能和适应性,确保数据去除的高效性及动态调整模型以保持泛化能力,通过广泛实验验证了方法的有效性,对机器遗忘领域做出了重大贡献。
Mar, 2024
通过差分隐私和稳定学习理论的显式连接,提出了一种更好的隐私 / 实用性权衡方法,以便为所有凸型 Lipschitz 有界学习任务获得更好的权衡,并将其应用在医疗数据上,以获得更准确的模型。但改进后的隐私机制使得不同隐私机制更容易受到模型反演攻击的影响。
Dec, 2015
通过研究选择性分类器在差分隐私约束下的效果,探讨深度学习模型的可靠性及隐私泄漏问题,发现最近的一种基于现成的深度学习模型生成检查点的方法在差分隐私下更为合适,使用差分隐私不仅会降低模型的效能,而且在隐私预算降低时需要付出相当大的覆盖成本。
May, 2023
探讨在分类和回归等多种模型中,为实现个体预测隐私保护所需的成本,以及通过训练多个模型并使用标准的聚合技术来预测,以降低聚合步骤引入的开销,并建立所有不同隐私预测算法的强广义保证,从而研究机器学习中差分隐私的最优样本调整量。
Mar, 2018
在该研究中,我们提出了基于模拟的隐私保护数据集推理方法,利用神经条件密度估计器近似后验分布,纠正隐私保护机制引入的偏差,并展示了隐私与效用之间的权衡的必要性和可行性。
Oct, 2023
本文研究了深度学习中隐私方面的问题,提出了一种新的隐私定义 ——f - 差分隐私,并利用其可处理复合和子采样的性质,推导出了一种更简单的隐私分析方法。在图像分类、文本分类和推荐系统等任务中的实验结果表明,该方法可以在保证隐私的前提下提高神经网络的预测准确率。
Nov, 2019