学习最优公平策略
研究提出了一个信息理论框架来设计公平的预测器,以在监督学习环境中防止对指定敏感属性的歧视。使用平等的机会作为歧视标准,这要求在实际标签的条件下,预测应独立于受保护属性。同时确保公平和泛化,将数据压缩到辅助变量,再通过贝叶斯决策规则得到最终预测器。
Jan, 2018
本文提出了一个多功能的混合整数优化框架,用于学习最优和公平的决策树和其变体,避免不公平对待和 / 或不公平影响。计算结果表明,这个框架提高了领域内的技术水平,能以更低的成本提高准确性,从而产生非歧视性的决策。
Mar, 2019
机器学习算法应用于如信贷贷款或刑法司法等关乎人类生活方面的情境,其所基于的数据若含有人类偏见决策,则会产生人类偏见决策,拥有公平观念的机器学习是一种解决方案,但是如何实现公平面临着 “多维面” 等难题,要想在不同领域实现公平、公正,算法必须做到数据和开发者审查的透明化,在此基础上不断进行公平审计。
Jan, 2019
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
该研究引入了一种灵活的机制,以设计公平的分类器,其中利用了一种新颖的、直观的决策边界(不)公平度量,并结合实际的数据表明,该机制在维持准确度的小代价下,允许对公平度进行微调。
Jul, 2015
通过解决难以计算的无限机会约束程序,提出了一种多阶段框架,用于从观测数据中学习公平策略,该问题与公司招聘、贷款批准或保释决策等高风险领域中的选择相关,我们专注于可解释的线性选择规则,并通过解决混合二次锥优化问题获得了组合评价的解决方案,与现有的选择策略相比,在精确度方面提高了 11.6%,在不公平度方面减少了 38%。
Dec, 2023
本研究探讨了在自动化数据驱动决策中存在的公平性问题,并基于账单分配和无嫉妒性理论,提出了一种基于偏好的公平性概念及采用可行的代理方法设计符合偏好公平性观念的分类器。 通过实验得出此偏好公平性相较于基于平等的公平性更加实用。
Jun, 2017
提出了针对自动决策系统的公平需求的知觉差异,指出了社会必须解决的基本模糊性和关注点列表,并为自动决策系统中对公平的增加需求赋予了具体含义。
Nov, 2023