轨道的另一侧:大数据与受保护的类别
数据分析和算法决策越来越影响我们生活的各个方面,因此有必要确保它们不成为歧视,不公平,社会正义和不公平源泉的工具。本文提出了一个明确的研究议程,旨在解决这些问题。重点包括:确定模型是否存在偏见,将公平意识纳入机器学习方法中,提高数据驱动和模型驱动决策的透明度和控制以及支持跨学科研究来解决这些问题
Jun, 2017
本文提出了通过从可允许的训练数据中去除保护变量的所有信息来消除预测模型偏见的方法,并将其应用于罪犯记录的数据集以产生种族中立的再逮捕预测方案,证明了将种族作为协变量省略的方式仍导致存在种族差异,并且证明了应用我们提出的方法可以将这些数据中的种族差异从预测中去除,并对预测准确性的影响最小。
Oct, 2016
政府在制定和执行政策时,灵活生成异质治疗效应估计的因果机器学习方法可能是非常有用的工具。本文认为,标准的 AI 公平性方法并不适用于所有因果机器学习应用,因为因果机器学习通常使用建模来为最终的决策者提供信息,而 AI 公平性方法则假设模型直接做出决策。我们将这些情境分别定义为间接和直接决策,认为政策制定最好视为一项联合决策,其中因果机器学习模型通常只具有间接权力。我们提出了此情境下的公平性定义,即一个模型能为决策者提供准确做出关于公正政策结果的价值判断所需的信息,并指出因果机器学习模型的复杂性可能使其难以实现。解决方法不是传统的 AI 公平性调整,而是谨慎的建模和意识到这些方法可能鼓励的一些决策偏差。
Sep, 2023
本文探讨了机器学习如何工作以及如何制定公正和负责任的算法,重点考虑了在刑事司法系统中执行决策的案例,并对 HART 作为现实世界分类器的技术特征进行了说明和四个规范基准进行了评估。
Nov, 2018
本文通過創建因果貝葉斯知識圖,對機器學習模型中的歷史數據中現有的偏見進行了發現,提出了一種新的基於風險差的算法,以量化每個受保護變量在圖中的歧視影響力,以及一種快速適應的偏差控制方法,在元學習中高效地減少了組的不公平性,最終在合成和實際數據集上進行了廣泛實驗,證明了我們提出的不公平發現和防治方法可以高效地檢測偏見並減輕模型輸出上的偏見以及對訓練樣本量少的未見任務的精度和公平度的泛化。
Sep, 2020
针对风险评估的核心伦理辩论不仅仅是偏差或准确性的问题,而是目的的问题。机器学习不应用于预测,而是用于发现进入因果模型的协变量,以了解犯罪的社会,结构和心理驱动因素。我们提出了一种机器学习和因果推断的替代应用,从预测风险分数转向风险缓解。
Dec, 2017
机器学习算法应用于如信贷贷款或刑法司法等关乎人类生活方面的情境,其所基于的数据若含有人类偏见决策,则会产生人类偏见决策,拥有公平观念的机器学习是一种解决方案,但是如何实现公平面临着 “多维面” 等难题,要想在不同领域实现公平、公正,算法必须做到数据和开发者审查的透明化,在此基础上不断进行公平审计。
Jan, 2019
通过可解释的人工智能工具和符合可解释人工智能原则的模型简化,本研究探讨了透明度问题在公共政策评估中对因果机器学习的影响,并应用到一个案例研究中,展示了现有工具对于理解黑盒预测模型的不适用性,以及将模型简化以提高可解释性会导致误差的不可接受增加,最终得出需要新工具来正确理解因果机器学习模型及其拟合算法的结论。
Oct, 2023
本文提出了一种概率算法偏见的方法,通过消除模型将要训练的数据中所有关于保护变量的信息来消除模型中的偏见。我们将我们的方法应用于一个关于罪犯在被判决时的犯罪历史数据集,并证明了一种创建 “种族中立” 模型的常见方法 - 即忽略种族作为协变量 - 仍然会导致种族差异预测。最后,我们证明了采用我们提出的方法可以最小限度地对预测精度产生影响,同时消除预测中的种族差异。
Mar, 2017