对局部差分隐私对公平性影响的系统和正式研究:初步结果
自动决策系统在人们生活中的重要决策中越来越普遍地使用。由于操作数据的敏感性以及由此产生的决策,对这些技术的适当使用需要解决一些道德问题,特别是公平性和隐私保护。本文通过在多个敏感属性(即多维数据)存在的情况下研究本地差分隐私(LDP)对公平性的影响,提供了详细的实证分析。通过对合成数据集和基准数据集的详细实证分析,得出了相关的结论。最后,我们总结了我们的发现,并提出了一些建议,以指导从业者在保持公平性和实用性的同时采用有效的隐私保护措施。
Dec, 2023
通过广泛的评估结果,我们证明不同隐私度对公平性的影响并非单调。相反,我们观察到准确性差异在机器学习过程中添加更多的差分隐私噪声(增强隐私)时初步增加,但在更高隐私水平下通过更多噪声后逐渐减小。此外,通过在差分隐私随机梯度下降机器学习方法中实施梯度剪裁,可以减轻隐私噪声对公平性的负面影响。这种缓和是通过较低的剪裁阈值来调节差异性增长实现的。
Apr, 2024
本文研究了使用 LDP 在学习问题中收集多个敏感属性对公平性的影响。作者提出了一种新的隐私预算分配方案,考虑了敏感属性的不同域大小,实验结果表明该方案在隐私 - 效用 - 公平性权衡方面优于现有解决方案。作者使用多个公平度量和七个最先进的 LDP 协议对三个基准数据集进行了广泛的实验研究,总体而言,结果挑战了不同隐私性在机器学习中必然导致公平性变差的共识。
Apr, 2023
本篇文章综述了隐私保护与公平之间的关系,分析了在不同情况下二者目标的一致性与对立性,探讨了隐私保护可能加剧决策问题和学习任务中的偏见和不公平现象,并描述了在隐私保护系统中解决公平问题的可行措施,为在公平视角下部署保护隐私的机器学习或决策任务提供了统一的理解。
Feb, 2022
本文介绍了 FairDP 机制,它是一种同时确保差分隐私和公平性的新型机制。 FairDP 通过为不同的个体群体独立训练模型,并使用群体特定的剪辑术语来评估和限制 DP 的差异影响来运行。 在整个训练过程中,该机制逐步集成来自群体模型的知识,从而制定在下游任务中平衡隐私,实用性和公平性的综合模型。 广泛的理论和实证分析验证了 FairDP 的功效,展示了与现有方法相比,模型实用性,隐私和公平性之间的权衡得到了改善。
May, 2023
本文研究的 DP-SGD 算法在训练神经网络时,由于梯度裁剪和噪声加法等机制对复杂和少数类样本的影响更大,造成训练模型的准确率不公平,使 DP-SGD 算法不适用于存在不平衡类别数据的训练任务。
May, 2019
机器学习中公平性和隐私性是两个重要的价值观,通过差分隐私机制来限制个体训练数据对结果模型的影响,但我们发现差分隐私会加剧性别、种族和宗教偏见,而反事实数据增强法可以缓解差分隐私所引发的偏见扩大,因此差分隐私和反事实数据增强法可以同时维护公平性和隐私。
Feb, 2024
研究了不同程度数据不平衡和隐私保证对深度学习模型准确性和公平性的影响,并发现即使数据有小的不平衡和较宽松的隐私保证也会引起非公平性。
Sep, 2020
预训练的基础模型经差分隐私微调可在下游任务中实现接近非隐私分类器的准确性,并且在四个数据集中实现与非隐私技术的准确性相差不多,包括两个医学成像基准数据集。此外,我们的隐私医学分类器在不同人口群体之间没有更大的性能差异。此里程碑使得差分隐私训练成为一项实用且可靠的技术,有潜力广泛应用于敏感数据的安全机器学习训练,同时保护个人隐私。
Aug, 2023
通过引入信息瓶颈进行本地差分隐私的信息混淆方法,该研究旨在开发和分析一种理论框架,实现公平表示学习,并展示 LDP 随机化器在编码过程中提高公平性的能力。基于所提出的方法,我们进一步发展了一种同时实现 LDP 和公平性的变分表示编码方法,并通过广泛的实验验证了我们的理论结果,并展示了我们的方法在保持足够效用的同时能够实现 LDP 和公平性的能力。
Feb, 2024