- 自适应差分隐私在联邦学习中的基于优先级的方法
通过采用自适应噪声添加技术,我们提出了一种针对联邦学习的改进方案,根据特征的相对重要性决定注入噪声的数值,以平衡隐私和模型准确性的关系。实验证实了在一定条件下,通过慎重选择参数,可以提高隐私保护而减少模型性能的损失。
- ExpM+NF:超越 DPSGD 的差分隐私机器学习
我们提出了 ExpM+NF 方法,它通过使用指数机制(ExpM)和辅助归一化流(NF)来在私有数据上训练具有预定差分隐私保证的机器学习(ML)模型。我们在多个分类任务上通过 Logistic 回归和 GRU-D 进行实验,ExpM+NF 实 - 保护图神经网络中的节点隐私
差分隐私在学习表格、图像和序列数据等地方应用广泛,但在图神经网络中的节点级隐私方面仍面临挑战。本研究提出了一个解决节点级隐私问题的方案,包括异泊松采样和使用对称多元拉普拉斯噪声的随机化程序。实验证明该方案在高隐私条件下表现出显著优势,并经过 - Spectral-DP: 谱扰动与过滤下的差分隐私深度学习
基于 Spectral-DP 的差分隐私深度学习方法在训练和迁移学习设置中表现出一致更好的效果。
- 精度优先机制的自适应隐私组合
研究了如何将降噪机制与其他差分隐私机制相结合,并使用隐私过滤器进行自适应转换,以实现整体隐私保证。
- 隐私保证的自适应误发现率控制
本文提供了一种不同 ially private AdaPT 控制方法,它可以在隐私保护下确切地控制经典的 FDR 指标,同时保证了误发现的小部分,其基于两个关键的 insights:1)一种新颖的 p 值转换方法,可以保护隐私和镜像保守性, - 基于模拟退火的差分隐私随机梯度下降算法
本文提出了一个基于模拟退火算法的差分隐私随机梯度下降(SA-DPSGD)方案,该方案通过对候选更新进行概率筛选,使得梯度下降朝着正确方向进行,并最终获得更准确的模型。在 MNIST、FashionMNIST 和 CIFAR10 数据集上进行 - KDD基于分层分离树的可扩展差分隐私聚类
通过利用树嵌入和标准的降维技术,我们提出了一种高效易实现的算法,能够解决 $k$- 中位数和 $k$- 均值的私有聚类问题,具有很好的时间和空间复杂度,适用于大规模分布式计算环境,并有可观的隐私保障.
- ACL文档嵌入的句子级隐私保护
本文介绍了一种名为 SentDP 的技术,它采用纯局部差分隐私方法,对单个用户文档进行句子级别的学习。这种方法可以用于情感分析和主题分类等下游任务,并且优于像 Metric DP 这样具有较低隐私保障的基准方法。
- EMNLP双重微调:面向大语言模型的选择性差分隐私
本研究提出了一种称为 Just Fine-tune Twice(JFT)的新框架,用于保护最先进的大型 Transformer 模型的选择性差分隐私,并研究了系统性的方法来处理敏感标记的缺失,实现了良好的实用性和隐私保证。
- AAAI你的强化学习策略有多隐私?一个基于逆强化学习的分析框架
提出了一个名为 Privacy-Aware Inverse RL 的分析框架,通过反向强化学习算法来进行隐私保护的评估,并实验评估针对不同复杂度情况下的 FrozenLake 域的多个实例的隐私算法的有效性和保障水平,并量化地证明了需要更高 - ICLR隐私保护不应妨碍效用:梯度嵌入扰动实现隐私学习
本文提出了一种算法 Gradient Embedding Perturbation(GEP),针对训练深度学习模型时巨大的可训练参数导致 Differential Privacy(DP)机制失效的问题,通过将个体私有梯度投影到非敏感锚定子空 - ADePT:基于自编码器的差分隐私文本转换
提出了一种使用自编码器的实用性保留差分隐私文本转换算法,具有高语义质量并在下游 NLP 任务中表现良好,证明了算法的理论隐私保证,并评估了基于转换数据训练的模型下成员推理攻击的隐私泄漏。结果表明,与现有的基线相比,所提出的模型在 MIA 攻 - LDP-Fed: 本地差分隐私联邦学习
LDP-Fed 是一个具有正式隐私保证的新型联邦学习系统,使用本地差分隐私(LDP),有别于现有的 LDP 协议,其可以处理来自参与者的高维连续值参数。
- 差分隐私作为互信息约束
使用互信息给出的等价隐私定义,揭示了差分隐私的 subtleties,证明了其强度介于 ε 差分隐私和 (ε,δ) 差分隐私之间,并证明了互信息替代差分隐私的优势在于其属性易于理解和验证,如合成定理。
- 差分隐私数据合成方法比较研究
本研究探讨了当前的差分隐私数据合成技术对于发布原始数据的个人级别代理数据的技术概念,以及通过广泛的模拟研究评估每种数据合成技术的统计效用和推断属性,为不公开数据的发布提供了差分隐私的实际可行性和效用,同时提出了未来的研究方向。
- 利用差分隐私挖掘频繁图模式
本文提出了一种用于挖掘频繁图模式的不同隐私算法,并基于 Markov Chain Monte Carlo 采样方法解决了挖掘频繁图模式的难题,同时保证了隐私和效用保障。