FairLay-ML: 数据驱动型社会关键算法中不公平现象的直观解决方案
机器学习算法应用广泛,但也可能存在偏见和不公平。本研究提出了一种刻画数据偏见的分类法,并探究了算法的不公平和精度之间的权衡。实证研究表明,在不同的数据偏见设置下,算法的公平性和精度会受到不同的影响,而简单的预处理干预技术可以提高算法的公平性。
Jul, 2022
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
数据驱动的软件解决方案在对社会经济、法律和道德产生重大影响的关键领域得到了广泛应用。然而,数据驱动解决方案的快速采用对自动化决策支持软件的可信度构成了重大威胁。本研究提出了一种名为 oolname 的调试工具,用于测试和解释数据驱动解决方案的公平性影响。该工具可视化给定数据点的数据集逻辑、已训练模型和决策过程,并训练具有不同公平性 - 准确性权衡的各种模型。关键是, oolname 还包括反事实公平性测试,以发现超越开发数据集的错误。我们通过 oolname 进行了两项研究,以衡量普遍的反事实测试中的误报 / 漏报,并理解类别调查中对反事实测试案例的人类感知。 oolname 及其基准测试数据可在此 https URL 上公开获取。工具的在线版本可在此 https URL 上访问。我们还提供了该工具的视频演示,地址为此 https URL。
Jul, 2024
提出了一个框架以减少训练数据集中不公平的代表性,其中使用两个相互操作的对手功能来提高公平性。首先,通过训练模型防止猜测受保护属性的值,同时限制效用损失,实现模型公平性优化。然后,利用对抗机器学习的规避攻击生成新的被错误分类的例子,并用于第一步模型的重新训练和改进增强模型的公平性。将这两个步骤迭代应用,直到显著提高公平性。
May, 2020
这篇文章介绍了机器学习中的社会偏见和公平性问题,总结了预处理、处理和后处理等多种方法,包含二分类、回归、推荐系统、无监督学习和自然语言处理等多个方面,同时提供了多个开源库。最后,列举了公平性研究的四个难题。
Oct, 2020
本文展示了在真实世界中基于 40 个高评分 Kaggle 模型的公平性评估及其 7 种缓解技术的实证研究。结果发现,部分优化技术会导致模型失公,尽管机器学习库中有公平控制机制,但这些机制未被记录。最佳的降低失公的方法往往存在权衡和代价.
May, 2020
本研究旨在检查现有知识中关于机器学习模型中的偏见和不公平的研究,并识别减弱算法不公平和偏差的方法、公平性度量和支持工具。经过系统文献综述,发现了 40 篇可用于 Scopus、IEEE Xplore, Web of Science 和 Google Scholar 知识库的文章。结果表明,针对 ML 技术的多种偏见和不公平检测与减轻方法,在文献中定义了明确的度量标准,可以突出不同的度量标准。因此建议进一步研究,以定义在每种情况下应采用的技术和指标,以标准化并确保机器学习模型的公正性,从而允许最适当的度量标准来检测偏见和不公平。
Feb, 2022
本研究通过反事实思考,提出一种针对 ML 软件中偏见根源的创新对策,并将优化性能和公平性模型相结合,成功提高了 ML 软件的公平性并保持了高竞争力性能
Feb, 2023