通过因果推断和约束优化方法学习公平政策,解决敏感情境下数据分析中存在的多个潜在偏见,避免自动决策程序和学习算法继续存在不公平现象。
Sep, 2018
本文研究了一种被称为结果控制的决策任务,尝试在实现最优结果的同时保证公平性,介绍了一种最小公平性要求的算法,并提出了分析受保护属性影响的工具。最后,提出了因果效益公平性的概念,并提出了一种新的最优化程序,能够确保决策过程中的因果公平性。
Jun, 2023
本文研究学习分类器的公平性约束问题并提出了三种解决方案,分别是将两个现有的公平性度量关联到成本敏感风险,显示了对于成本敏感分类和公平性度量的最优分类器是类概率函数的实例相关阈值,并展示了准确性和公平性之间的权衡是通过目标和敏感特征的类概率之间的一致性来确定的。支撑我们分析的是一个通用框架,将具有公平要求的学习问题建模为两种统计风险差异的最小化问题。
May, 2017
针对敏感应用如医疗保健或刑事司法等领域,本研究旨在解决在预测模型中公平性与准确性的平衡问题,并提出,应该在数据的背景下评估预测结果的公平性,并通过数据收集来解决样本大小或未测量的预测变量所带来的不公平性,同时通过将成本基准的歧视度量分解为偏差,方差和噪音,并提出旨在估计和减少每个术语的行动。最后,本文以收入,死亡率和审查等领域的预测为案例研究,确认这种分析方法的价值,并发现数据收集通常是减少歧视而不牺牲准确性的手段。
May, 2018
本文探讨了基于因果关系的公平性概念及其在实际场景中的适用性,并针对采用观察数据估计因果量的不同方法,包括可辨识性和潜在结果框架进行了综合报告,提供出一个指南来帮助选择适合特定实际场景的公平性概念,并根据 Pearl 的因果推理难度对公平性概念进行了排名。
Oct, 2020
介绍了一种基于经验风险最小化的算法,通过将公平性约束条件融入到学习问题中,实现敏感变量不会不公平地影响分类器的结果,得出了公平性和风险的界限,对核方法进行了特定说明,发现公平性要求意味着正交性约束,此约束可轻松添加到这些方法中,特别是对于线性模型,约束转化为一个简单的数据预处理步骤,实验证明该算法具有实用性,表现优于最先进的方法。
Feb, 2018
研究了在因果推断中如何解决因果关系难以识别的问题,提出了协变量调整的图形标准并推导了一些相关的推论。
Mar, 2012
本文通過創建因果貝葉斯知識圖,對機器學習模型中的歷史數據中現有的偏見進行了發現,提出了一種新的基於風險差的算法,以量化每個受保護變量在圖中的歧視影響力,以及一種快速適應的偏差控制方法,在元學習中高效地減少了組的不公平性,最終在合成和實際數據集上進行了廣泛實驗,證明了我們提出的不公平發現和防治方法可以高效地檢測偏見並減輕模型輸出上的偏見以及對訓練樣本量少的未見任務的精度和公平度的泛化。
Sep, 2020
研究提出了一个信息理论框架来设计公平的预测器,以在监督学习环境中防止对指定敏感属性的歧视。使用平等的机会作为歧视标准,这要求在实际标签的条件下,预测应独立于受保护属性。同时确保公平和泛化,将数据压缩到辅助变量,再通过贝叶斯决策规则得到最终预测器。
Jan, 2018
本研究提出了一个新的公平定义,通过对敏感特征感兴趣的亚组的期望损失进行衡量,从而实现了通用的敏感特征以及凸性目标的结果。该目标是基于条件风险最小化构建的,这与数学金融中风险度量的丰富文献相关。
Jan, 2019