该论文提出了一种针对多维数据的 LDP 机制,该机制可以包含数字和分类属性,并构建了符合 LDP 的随机梯度下降算法,在真实数据集上进行实验,证明了这种机制的有效性和优越性。
Jun, 2019
自动决策系统在人们生活中的重要决策中越来越普遍地使用。由于操作数据的敏感性以及由此产生的决策,对这些技术的适当使用需要解决一些道德问题,特别是公平性和隐私保护。本文通过在多个敏感属性(即多维数据)存在的情况下研究本地差分隐私(LDP)对公平性的影响,提供了详细的实证分析。通过对合成数据集和基准数据集的详细实证分析,得出了相关的结论。最后,我们总结了我们的发现,并提出了一些建议,以指导从业者在保持公平性和实用性的同时采用有效的隐私保护措施。
Dec, 2023
本文提出了一个上下文感知的局部差分隐私框架,允许隐私设计者将应用程序的上下文纳入到隐私定义中。针对二进制数据域,我们提供了一种普遍最优的隐私方案,并且针对 $k$-ary 数据域,我们研究了两种特殊情况下的局部差分隐私。我们研究了离散分布估计,并提供了通信效率高、样本最优的方案和信息论下界。我们展示了使用上下文信息可以比经典局部差分隐私更少地使用样本来达到相同的准确度。
Oct, 2019
本文针对 LDP 算法在隐私、统计计算和大数据等领域的应用,介绍了不同 LDP 算法在本地程序用户隐私保护、重要数据识别和空间数据收集等问题上的实现并探讨了其未来发展方向。
Jul, 2019
本文提出一种实现高精度(ε,δ)-LDP (可保持个人数据隐私)的机制,分别针对多维数值数据和分类属性进行收集,实现了对数据的安全保护和更高的准确性,实验证明其在数据统计和机器学习模型中具有很高的数据实用性。
本文论述了 LDP(Local Differential Privacy)模型的隐私保护架构,包括模型、机理、应用场景以及未来研究方向,并比较了在不同数据分析任务中的应用,以达到保护数据隐私的目的。
Oct, 2020
本文提出了一种隐私保护的分布式深度学习框架 LDP-DL, 通过使用本地差分隐私和知识蒸馏进行模型训练。实验结果表明,在三个常用深度学习数据集 (CIFAR10, MNIST, FashionMNIST) 上的实验中,LDP-DL 在隐私预算和模型准确性方面均优于其他竞争对手。
Feb, 2022
对自然语言生成任务中使用大型语言模型进行用户级差分隐私保护的设计选择进行系统评估,重点研究两种实现用户级差分隐私保证的机制,即群体隐私和用户级 DP-SGD,包括数据选择策略和参数调优,以实现最佳的隐私 - 效用平衡。
Jun, 2024
本文提出了一种基于局部差分隐私的生成对抗网络训练方法,通过熵正则化 Wasserstein 距离的组合使用来降噪数据分布,有效地缓解了正则化偏差和隐私噪声效应。
Jun, 2023
本文研究了使用 LDP 在学习问题中收集多个敏感属性对公平性的影响。作者提出了一种新的隐私预算分配方案,考虑了敏感属性的不同域大小,实验结果表明该方案在隐私 - 效用 - 公平性权衡方面优于现有解决方案。作者使用多个公平度量和七个最先进的 LDP 协议对三个基准数据集进行了广泛的实验研究,总体而言,结果挑战了不同隐私性在机器学习中必然导致公平性变差的共识。
Apr, 2023