该研究论文探讨了利用朴素贝叶斯分类器实现公平,提出了歧视模式的概念,介绍了一种发现和挖掘歧视模式的算法,并展示了一种学习最大似然参数以符合公平约束的方法,通过在三个真实世界数据集上进行实证评估表明,只增加少量约束即可消除指数级别的歧视模式。
Jun, 2019
本文介绍了一种基于统计推断的系统的运行时监测技术,该系统具有未知的结构但是被假定为具有马尔可夫链结构。我们引入了一种规范语言,可以模拟许多常见的算法公平性属性,例如人口平均,平等机会和社会负担。使用原型实现,我们展示了如何监测银行在不同社会背景的申请人给予贷款以及学院在保持合理的社会负担的情况下公平地录取学生。
May, 2023
本文介绍了利用可计算的概率模型实现公平性的一种方法,其中 Sum Product Networks(SPNs)可以有效地确定受保护属性与其他训练变量之间的统计关系,并通过排除那些与训练属性无关的变量来训练分类模型,从而减少男性和女性信用申请者的不公平对待。
May, 2019
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
本研究提出了一种基于主动框架的公平分类方法,通过根据不同群体或个体的需求自适应获取信息来平衡分类性能差异,证明了该方法可以显著优于基于随机化的分类器。
Sep, 2018
公平机器学习的早期专注是确保由算法指导的决策是公平的,三个公平定义引起了人们的关注,即反分类,分类平衡和校准,但这三个公平定义都有重大的统计局限性。相比之下,我们认为更倾向于根据最准确的风险估计对类似风险的人进行相似的处理,而不是一定要满足公平的数学定义,并强调这种方法需要大量的努力来构建适当的风险估计。
Jul, 2018
随着人工智能和机器学习软件在影响人类的决策中的应用日益增多,保持公正无偏成为当务之急。为了补充设计时的偏见缓解措施,最近引入了运行时验证技术来监测部署系统的算法公平性。本研究将公平性监测扩展到部分观测的马尔可夫链 (POMC) 建模的系统,并且适用于包含事件序列中数值函数期望值的算术表达式的规范。我们的监测器通过仅观测到单个执行,估计了受监测的 POMC 可能执行的整个分布的给定属性。这些监测器在每次新观测后输出更新的 PAC 估计,以评估系统的公平性或偏见。监测器计算量轻,并使用原型实现在几个真实世界的示例中展示了其有效性。
Aug, 2023
本文提出了一种基于干预的因果公平性框架,用于在部分已知因果图的情况下实现公平预测,该方法使用部分有向无环图(PDAG)来度量因果公平性,并制定一个受限制的优化问题来平衡公平性和准确性。模拟和真实数据集的结果证明了该方法的有效性。
Jan, 2024
通过对统计平等和预测平等的关系进行原因分解,我们得出了一种新的公式,使得两种平等概念不互斥,而是互补的,并通过业务必要性的理念涵盖了公平性概念的一系列光谱,最终我们通过真实世界的案例证明了我们发现的重要性。
Jun, 2023
该文提出了一种用于分类表格数据的前馈神经网络的因果公平性认证方法,能够准确判定机器学习模型是否有偏差,并在可扩展的精度方面提供了不同的选择。
Dec, 2019