- 解锁差分隐私图像分类的准确度与公平性
预训练的基础模型经差分隐私微调可在下游任务中实现接近非隐私分类器的准确性,并且在四个数据集中实现与非隐私技术的准确性相差不多,包括两个医学成像基准数据集。此外,我们的隐私医学分类器在不同人口群体之间没有更大的性能差异。此里程碑使得差分隐私训 - 一个统一的差分私有量子算法框架
量子差分隐私通过添加经典和量子噪声,以及研究邻接量子状态的概念,提供了更强的隐私保证,并通过实证估计不同差分隐私测量方式的认证对抗性鲁棒性。
- 梯度看起来相似:DP-SGD 中的敏感性经常被高估
本文发展了一种新的 DP-SGD 分析方法,该算法能够更好地处理训练数据集中许多数据点的隐私泄露问题,具有更好的隐私保障,特别是对正确分类的数据点而言。
- 成功的简单步骤:基于距离的算法回溯公理
提出了一种基于数据的计算法和隐私保障的新框架,用于算法救济,并通过实证研究和理论分析证明了该框架的优越性,使用户能够在数据流形中找到改变预测结果的方向。
- 为提高选定度量的效用而后处理私有合成数据
本研究介绍了一种后处理技术,使用有效的随机一阶算法从合成数据中进行重新采样,以过滤不符合选定效用度量标准的样本,提高了合成数据的效用,并保持强大的隐私保护和数据集质量。
- 差分隐私场景内学习
通过建立嘈杂一致性来实现隐私推理,DP-ICL 提出了一个方法,用于使大型语言模型适应新任务同时保持隐私保证,通过在一系列范例上建立嘈杂共识,DP-ICL 在四个基准测试中获得了与非私有 ICL 相当的性能 (<2% 降级)。
- CVPR差分隐私联邦学习中降低横向溢出
DP-FedSAM 是一种新的 DPFL 算法,它利用梯度扰动来减轻 DP 的负面影响,并整合 SAM 优化器来生成具有更好稳定性和权重扰动鲁棒性的本地平坦模型,从而提高性能并提供隐私保证。
- 具有鉴别信息的私有集生成
本研究提出了一种基于判别信息的生成模型训练方法,通过优化一小部分样本的代表性,以实现高维数据的差分隐私保护,并有效提升了现有生成模型的样本效用。
- 通过差分隐私的视角对广义似然比检验对手进行建模
本文在假设检验 / 成员推断的 DP 解释下,对高斯机制进行了研究,通过放宽通常的 Neyman-Pearson-optimal 假设为一般化似然比检验敌手,获得了改进的隐私保证。
- GAN 生成样本的隐私属性
通过研究生成式对抗网络,我们证明了一定条件下,GAN 生成的样本天然满足一定程度的隐私保障,即 ε,δ 差分私有性。同时,我们研究了对成员身份推断攻击的鲁棒性,并证明了对手的区分能力至少为 O (m^{-1/4})。
- GeoPointGAN: 带有局部标签差分隐私的合成空间数据
GeoPointGAN 是一种基于 GAN 的解决方案,用于生成具有高效和隐私保证的合成空间点数据集,具有标签局部差分隐私保证,并通过随机响应机制将‘真实’和‘虚假’数据的标签翻转来实现。实验结果表明,与竞争对手相比,GeoPointGAN - 用 Rényi 差分隐私来防御重建攻击
本文研究重建攻击和隐私保护,通过实验表明较大的隐私预算不能保护模型的成员推断,但可以保护好非常罕见的秘密,并提出一种相同机制的更好的重建攻击隐私保证。
- AAAIBEAS:区块链支持的异步安全联邦机器学习
BEAS 是第一个基于区块链的 N-party Federated Learning 框架,使用梯度剪枝技术提供严格的隐私保障,减少了数据投毒和模型投毒攻击,并采用一种新的协议来防止异构学习环境下的早期收敛。在多个数据集上进行了广泛的实验, - 高维下的差分隐私和鲁棒统计学
通过引入高维度的 Propose-Test-Release(HPTR)框架,概括表征具有差分隐私保证的统计估计问题的统计效率,以及基于差分隐私保证的健壮统计和对数学分析的需求。
- ICLR差分隐私的复数深度学习
该研究介绍了一种扩展差分隐私 (DP) 到复数情况下的 DP 变体,使用该方法可以在保证隐私安全的同时训练复数神经网络,实验结果证明其具有优秀的效果和保护隐私的性能。
- AAAI难以忘怀:基于认证机器遗忘的毒化攻击
本文研究用户信息的删除和机器去学习概念,阐述了目前保证用户隐私的方法以及可能出现的潜在攻击方式,其中特别探讨了有意设计的训练数据能触发完全重新训练的中毒攻击。
- EMNLP当差分隐私遇上自然语言处理:魔鬼藏在细节中
本文针对 ADePT 的形式化分析表明其不具备差分隐私性质,证明了实验结果缺乏可靠的支持,同时阐明了形式化保证在自然语言处理中的重要性。
- ICLRPEARL: 私有嵌入和对抗重构学习合成数据
使用深度生成模型在不泄露敏感数据的情况下进行数据生成和训练。该方法通过独立的特征函数和对抗重新加权目标实现,并且在多个数据集上的实证评估表明,在合理的隐私级别下,我们的方法优于其他方法。
- 在联邦学习中防范多轮隐私泄露:保障安全聚合
本研究提出一种具有多轮隐私保障的安全聚合框架,包括一个新的衡量指标来量化联邦学习的隐私保证,并开发了一种结构化的用户选择策略来保证每个用户的长期隐私(在任意数量的训练轮次下),并在 MNIST 和 CIFAR-10 数据集上进行了实验。
- 差分隐私的数值组成
提供了一种快速算法,可以将差分隐私算法的隐私保证优化到任意精度,并使用隐私损失随机变量的概念来量化差分隐私算法的隐私损失,该算法可以加速隐私计算几个数量级同时保持类似的准确性。