研究提出了一个信息理论框架来设计公平的预测器,以在监督学习环境中防止对指定敏感属性的歧视。使用平等的机会作为歧视标准,这要求在实际标签的条件下,预测应独立于受保护属性。同时确保公平和泛化,将数据压缩到辅助变量,再通过贝叶斯决策规则得到最终预测器。
Jan, 2018
通过学习符合 Hardt 等人提出的 “平等赔率” 概念中的 “保护属性” 的非歧视性预测器,我们从统计和计算的角度研究了从有限训练集中学习这样的非歧视性预测器的问题。我们表明事后的校正方法可以具有很高的次优性,提出一种接近最优的统计过程,证明相关的计算问题是难以解决的,并提出一个满足可学习性的关于非歧视性定义的二阶弛豫。
Feb, 2017
本文研究通过个人隐私保护的方式,实现对受保护属性的学习,在使用中不产生歧视,同时在受保护属性只在数据子集中存在的情况下,实现公平预测模型的学习。
Feb, 2020
研究如何在收集敏感属性信息受到禁止或限制的情况下,通过差分隐私算法实现公平学习,并提出两种算法来设计实现,同时保证了差分隐私和均等几率性,讨论这三个性质间的权衡关系。
Dec, 2018
介绍了如何通过安全多方计算的方法,加密敏感属性,学习一个基于结果的公平模型,而无需揭示个人敏感信息,从而避免种族或性别等敏感属性对机器学习模型造成的不公平问题。
Jun, 2018
通过建模特征交互来检测相关属性以减轻偏见影响的无假设框架,大大减轻了机器学习模型中针对特定人群的歧视和不公平预测行为。
Jul, 2023
该研究探讨了机器学习中公平性的定义和测量方法,提出了基于因果推理的非歧视标准,并开发了相应的算法。
Jun, 2017
本文提出了一种基于 Hilber-Schmidt 独立性准则的预处理步骤,用于自动识别敏感特征,以解决机器学习模型在高度影响社会的决策支持系统中不公平结果的问题。我们的实验结果证明了我们的假设,并表明文献中被认为是敏感的几个特征不一定产生不公平结果。
May, 2023
本文通過創建因果貝葉斯知識圖,對機器學習模型中的歷史數據中現有的偏見進行了發現,提出了一種新的基於風險差的算法,以量化每個受保護變量在圖中的歧視影響力,以及一種快速適應的偏差控制方法,在元學習中高效地減少了組的不公平性,最終在合成和實際數據集上進行了廣泛實驗,證明了我們提出的不公平發現和防治方法可以高效地檢測偏見並減輕模型輸出上的偏見以及對訓練樣本量少的未見任務的精度和公平度的泛化。
Sep, 2020
研究表明,要确保模型开发人员无法通过查询公平度量来了解个体的受保护属性,提出了一个新技术 Attribute-Conceal 来实现差分隐私,避免了普通机制的局限性。
Nov, 2022