研究人员开发了一个名为 Aequitas 的开源工具包,该工具包可帮助数据科学家、机器学习研究人员和政策制定者测试多个偏差和公平度量标准,以实现对算法决策制定系统进行有根据的和公平的决策。
Nov, 2018
本文介绍了一个基于交互和隐私保护测试的框架,该框架允许对任何经过训练的模型进行公平程度的认证,无论其训练过程和架构如何,并且提供了一种加密技术来自动进行公平测试和认证推理,同时隐藏参与者的敏感数据。
Sep, 2020
自动机器学习是一项加速机器学习系统开发过程的技术,但考虑了公平性后,公平性优化不应被简单地视为一项技术问题,自动机器学习应成为机器学习从业者工具箱中为公平性研究服务的重要角色。
Mar, 2023
该研究提出了一种基于语法的公平性测试方法(称为 ASTRAEA),它利用上下文无关语法生成具有歧视性的输入,从而揭示软件系统中的公平性违规,并通过模型再培训使软件的公平性提高了约 76%。
Oct, 2020
本研究提出了一种新颖的方法来使用自动机器学习技术来减轻偏见,并通过改进 AutoML 的默认优化函数和将公平目标纳入其中来实现这一目标,使偏见得到很好的缓解而几乎不会带来精度损失,同时还提出了一种公平感知的搜索空间修剪方法,以减少计算成本和修复时间。通过在四个公平问题和 16 个不同的机器学习模型上进行评估,发现本研究的方法在修复成败中有着显著的改进,成功地修复了 60 个错误案例,而现有的偏差减轻技术只修复了 44 个错误案例。
Jun, 2023
本文旨在调查研究自动化决策系统中机器学习算法存在的偏差及其与公平、隐私和分类准确性之间的关系,并综述了处理公平 - 准确性权衡的不同方法。作者通过实验分析了公平度量和准确度在现实世界场景中的关系。
Sep, 2022
随着人工智能在影响人类和社会的决策中扮演越来越重要的角色,自动化决策系统的问责制越来越受到研究人员和从业者的关注。然而,在评估公平性方面,文献中存在着大量采用不同视角和假设的公平度量标准,这通常是不兼容的。本文提出了一个新的等混乱公平测试来检查自动化决策系统的公平性,并提出了一个新的混淆平等误差来量化任何不公平性的程度。通过对自动化决策系统 COMPAS 进行案例研究,证明了这里提供的测试、度量和事后分析的实用性。
Jul, 2023
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
本文介绍了一种基于统计推断的系统的运行时监测技术,该系统具有未知的结构但是被假定为具有马尔可夫链结构。我们引入了一种规范语言,可以模拟许多常见的算法公平性属性,例如人口平均,平等机会和社会负担。使用原型实现,我们展示了如何监测银行在不同社会背景的申请人给予贷款以及学院在保持合理的社会负担的情况下公平地录取学生。
May, 2023
本文介绍了一种使用因果干预公平性范例,通过在数据管理的集成组件中考虑公平性来识别特征以提高预测质量而不添加偏差的方法,提出了一种使用条件独立性检测的方法来确定确保干预公平的特征子集,并通过现实世界的数据集进行了详细的实证评估,证明了方法的有效性和效率。
Jun, 2020