私人学习有多不公平?
研究算法公平性和隐私在机器学习中的应用,分析了公平性对训练数据信息泄露的影响,发现公平性会牺牲一部分隐私权,特别是对弱势群体。同时,训练数据的偏差越大,为了弱势群体的公平性所付出的隐私成本也越高。
Nov, 2020
研究了不同程度数据不平衡和隐私保证对深度学习模型准确性和公平性的影响,并发现即使数据有小的不平衡和较宽松的隐私保证也会引起非公平性。
Sep, 2020
本文提出了在机器学习半私密设置中进行公平分类的新框架 FairSP,该框架可以借助少量的干净敏感属性来纠正嘈杂的敏感属性,然后通过对抗的方式,共同模拟已经校正的和干净的数据,以实现去偏差和预测,并证明该模型可以保证当大多数敏感属性是私密时的公平性。
Jul, 2022
通过广泛的评估结果,我们证明不同隐私度对公平性的影响并非单调。相反,我们观察到准确性差异在机器学习过程中添加更多的差分隐私噪声(增强隐私)时初步增加,但在更高隐私水平下通过更多噪声后逐渐减小。此外,通过在差分隐私随机梯度下降机器学习方法中实施梯度剪裁,可以减轻隐私噪声对公平性的负面影响。这种缓和是通过较低的剪裁阈值来调节差异性增长实现的。
Apr, 2024
研究机器学习算法如何实现公平性是机器学习中一个重要的领域。为了在构建机器学习系统时考虑公平性,这篇文章提出了一种新的公平性模型,即在具有审查制度的情况下进行个体公平性学习,探索了缺乏类标签前提条件的情况下如何对待相似的个体并减少歧视。本文在三个真实世界的数据集上验证了该方法的卓越表现,既能最小化歧视,又能保持预测性能。
Feb, 2023
本文介绍了一个基于交互和隐私保护测试的框架,该框架允许对任何经过训练的模型进行公平程度的认证,无论其训练过程和架构如何,并且提供了一种加密技术来自动进行公平测试和认证推理,同时隐藏参与者的敏感数据。
Sep, 2020
机器学习算法应用广泛,但也可能存在偏见和不公平。本研究提出了一种刻画数据偏见的分类法,并探究了算法的不公平和精度之间的权衡。实证研究表明,在不同的数据偏见设置下,算法的公平性和精度会受到不同的影响,而简单的预处理干预技术可以提高算法的公平性。
Jul, 2022
在数据稀缺环境中,通过结合后验采样和公平分类子程序的创新主动学习框架,我们有效地提高了模型准确性并满足公平约束,证明了该方法在最大限度利用少量标注数据时的有效性,并对已有方法进行了改进。
Dec, 2023
研究如何在收集敏感属性信息受到禁止或限制的情况下,通过差分隐私算法实现公平学习,并提出两种算法来设计实现,同时保证了差分隐私和均等几率性,讨论这三个性质间的权衡关系。
Dec, 2018