在机器学习中,通过使用受保护的属性定义的结构化函数类来提议一种新的公平统计定义,从而语义上定义了指数级(或无限个)子组内的统计不变性,并证明了公平子组审核的计算问题与弱自适应学习问题等价,提出了两种算法,证明了这些算法在解决自治学习问题的情况下可以收敛,其中第二种方法具有简单和更快的步骤计算的优点。
Nov, 2017
研究 ML 模型的审计算法,通过提出确定性算法和实用的随机化算法来评估 ML 模型的人口统计平等,以帮助监管机构应对机器学习的监管挑战,并为 AI 治理奠定更坚实的理论基础。
Jun, 2022
这篇文章介绍了机器学习中的社会偏见和公平性问题,总结了预处理、处理和后处理等多种方法,包含二分类、回归、推荐系统、无监督学习和自然语言处理等多个方面,同时提供了多个开源库。最后,列举了公平性研究的四个难题。
Oct, 2020
本文研究关于机器学习中的公平性问题,针对多种敏感属性,提出了应对交叉性公平性偏差的方法,定义了一系列评估数据或模型输出结果公平性的指标,并开发了后处理技术来减轻分类模型的交叉性偏差。这些技术不依赖于底层模型的任何假设,并可以保持公平性和预测性能的平衡。最后,展示了在实际数据集上提出的方法的有效性。
Nov, 2019
本文强调了在机器学习中使用公平性、责任性、透明度和伦理 (FATE) 工具的紧迫性,并提供了使用开源工具的动机。
提出了一种名为 'FairCompass' 的人在循环中的公平审计方法,通过混合可视化分析系统将子组发现技术和基于决策树的模式集成到终端用户中,以促进可视分析的知识生成模型的使用,在实际情境中评估了 FairCompass 的公平审计效果,结果显示该系统在实际应用上具有潜力,望能填补公平性研究中的现行空白并促进在机器学习系统中的公平性操作实施。
Dec, 2023
研究算法公平性和隐私在机器学习中的应用,分析了公平性对训练数据信息泄露的影响,发现公平性会牺牲一部分隐私权,特别是对弱势群体。同时,训练数据的偏差越大,为了弱势群体的公平性所付出的隐私成本也越高。
Nov, 2020
本文介绍了一种基于统计推断的系统的运行时监测技术,该系统具有未知的结构但是被假定为具有马尔可夫链结构。我们引入了一种规范语言,可以模拟许多常见的算法公平性属性,例如人口平均,平等机会和社会负担。使用原型实现,我们展示了如何监测银行在不同社会背景的申请人给予贷款以及学院在保持合理的社会负担的情况下公平地录取学生。
May, 2023
本文提出了一种使用非参数方法、连续监控、基于概率策略和适应分布变化等特征的公平性审计方法,并在多个基准公平性数据集上验证其有效性。
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020