个性化差分隐私的岭回归
本文研究了衡量数据集上 DP 机制对模型隐私保护的能力的新指标 - 隐私覆盖度,并提出了使用该指标排名训练集中样本隐私的方法,进而使用观察到的邻域分布的不可区分性转换来选择 epsilon 值。
Jun, 2023
该文探讨了在深度学习模型中如何保护训练数据的隐私,比较了不同优化方法对模型性能、训练效果和隐私攻击的影响,并确定了 dropout 和 l2 正则化作为较优秀的隐私保护方法。
Sep, 2022
本文介绍了一种名为 IDP-SGD 的变体 DP-SGD 方法,它支持个性化隐私预算,旨在实现不同用户数据的个性化隐私保护,并通过提高隐私效益权衡的方法得到实证结果。
Mar, 2023
本文旨在探究如何使用差分隐私来训练机器学习模型,以 ImageNet 图像分类为例,展示如何使用方法和模型类型来让训练过程更好地进行。我们展示了一些方法,使我们能够使用 DP 来训练一个 ResNet-18,精度为 47.9%。虽然这比 “朴素” 的 DP 训练要好,但是离没有隐私的情况下的 75%精度还有很大的差距。
Jan, 2022
文章介绍了差分隐私的优点及其在交互式查询的数据使用中的应用,同时指出了其局限性,强调需要注意其在个人数据采集、发布以及机器学习等领域中的滥用。
Nov, 2020
本研究研究以 Rényi 差分隐私为视角的 DP 组合,通过证明一个更简单的复合定理并提供小型常量,从而使其足够实用,以应用于 DP 深度学习中进行在线噪声或批处理大小调整以提高模型准确性,在固定的总隐私损失内以停止微调模型以减少总隐私损失的操作
Mar, 2021
在隐私保护机器学习领域中,差分隐私随机梯度下降(DP-SGD)已经超过了目标扰动机制在流行度和兴趣方面。这篇论文通过更严格的隐私分析和新的计算工具对目标扰动机制进行改进,使其在无约束的凸广义线性问题上能够与 DP-SGD 具有竞争力。
Dec, 2023
通过差分隐私和稳定学习理论的显式连接,提出了一种更好的隐私 / 实用性权衡方法,以便为所有凸型 Lipschitz 有界学习任务获得更好的权衡,并将其应用在医疗数据上,以获得更准确的模型。但改进后的隐私机制使得不同隐私机制更容易受到模型反演攻击的影响。
Dec, 2015
利用不同隐私保护方法在深度神经网络上进行私密训练,以实现维度较高的数据生成,并提出统一的方法以提供系统性的派生方法,满足不同用例的需求,探讨不同方法之间的优势、限制和内在相关性以启发未来研究,并提出前进的潜在途径以推动隐私保护学习领域的发展。
Sep, 2023
本文概述了隐私保护的形式定义 Differential Privacy 在数据处理中提供严格保证的重要思想、概念和应用,特别关注它在机器学习和联邦学习领域的交叉应用。
May, 2022