提出了一种基于集中差分隐私的神经网络训练方法,通过动态隐私预算分配和新的优化技术来提高模型准确性、训练效率和隐私保护能力。
Apr, 2019
本文研究了深度学习中隐私方面的问题,提出了一种新的隐私定义 ——f - 差分隐私,并利用其可处理复合和子采样的性质,推导出了一种更简单的隐私分析方法。在图像分类、文本分类和推荐系统等任务中的实验结果表明,该方法可以在保证隐私的前提下提高神经网络的预测准确率。
Nov, 2019
本文讨论了机器学习和差分隐私之间的相互作用,即隐私保护机器学习算法和基于学习的数据发布机制,探讨了可以通过差分隐私进行学习的内容以及差分隐私算法的损失函数上限。同时提出了一些开放性问题,包括如何整合公共数据,如何处理私人数据集中的缺失数据,以及当观察样本数量任意增大时,是否可以实现差分隐私机器学习算法而无需牺牲相关算法的效用成本。
Dec, 2014
通过研究选择性分类器在差分隐私约束下的效果,探讨深度学习模型的可靠性及隐私泄漏问题,发现最近的一种基于现成的深度学习模型生成检查点的方法在差分隐私下更为合适,使用差分隐私不仅会降低模型的效能,而且在隐私预算降低时需要付出相当大的覆盖成本。
May, 2023
本文旨在探究如何使用差分隐私来训练机器学习模型,以 ImageNet 图像分类为例,展示如何使用方法和模型类型来让训练过程更好地进行。我们展示了一些方法,使我们能够使用 DP 来训练一个 ResNet-18,精度为 47.9%。虽然这比 “朴素” 的 DP 训练要好,但是离没有隐私的情况下的 75%精度还有很大的差距。
Jan, 2022
通过广泛的评估结果,我们证明不同隐私度对公平性的影响并非单调。相反,我们观察到准确性差异在机器学习过程中添加更多的差分隐私噪声(增强隐私)时初步增加,但在更高隐私水平下通过更多噪声后逐渐减小。此外,通过在差分隐私随机梯度下降机器学习方法中实施梯度剪裁,可以减轻隐私噪声对公平性的负面影响。这种缓和是通过较低的剪裁阈值来调节差异性增长实现的。
Apr, 2024
本研究介绍了一种在分布式情况下使用差分隐私训练临床数据神经网络的方法,并在 eICU 协作研究数据库和 The Cancer Genome Atlas 上进行了验证。
Dec, 2018
在实际数据中进行差分隐私学习存在挑战:隐私保证难以解释,对私有数据进行的超参数调整会降低隐私预算,通常需要进行特殊的隐私攻击来测试模型的隐私性。本文提出了三种工具来使差分隐私机器学习更加实用:(1)可在训练前以集中方式进行的简单的健全性检查,(2)自适应裁剪边界来减少可调隐私参数的有效数量,(3)大批量训练可以提高模型性能。
利用不同隐私保护方法在深度神经网络上进行私密训练,以实现维度较高的数据生成,并提出统一的方法以提供系统性的派生方法,满足不同用例的需求,探讨不同方法之间的优势、限制和内在相关性以启发未来研究,并提出前进的潜在途径以推动隐私保护学习领域的发展。
Sep, 2023
该文探讨了在深度学习模型中如何保护训练数据的隐私,比较了不同优化方法对模型性能、训练效果和隐私攻击的影响,并确定了 dropout 和 l2 正则化作为较优秀的隐私保护方法。
Sep, 2022