挖掘可解释证据揭示不公平的模型
本文介绍了 FairLay-ML,一种结合了已有研究工具的图形用户界面,能够提供机器学习模型中不公平逻辑的直观解释,具有易于安装、提供实时黑盒解释和可执行的解决方案等特点。
Jul, 2023
机器学习算法应用广泛,但也可能存在偏见和不公平。本研究提出了一种刻画数据偏见的分类法,并探究了算法的不公平和精度之间的权衡。实证研究表明,在不同的数据偏见设置下,算法的公平性和精度会受到不同的影响,而简单的预处理干预技术可以提高算法的公平性。
Jul, 2022
本文利用因果推断和解释性机器学习的最新进展,提出了一种算法无关的框架 (MIIF),用于测量、解释和改进算法决策的公平性。我们使用随机实验来测量算法偏差,从而能够同时测量不同对待、不同影响和经济价值。此外,利用现代解释性技术,我们开发了一个可解释的机器学习模型,准确解释和提炼黑盒算法的信念。总的来说,这些技术为研究算法公平性创造了一个简单而强大的工具集,特别适用于理解实际应用中公平性成本的电子商务和目标广告等领域,其中行业的 A/B 测试已经非常丰富。
Sep, 2023
通过一项关于程序生成解释的实证研究,我们发现不同类型的解释如何影响人们对机器学习系统的公平判断,其中某些解释可增强人们对算法公正性的信心,但也有部分解释会被认为是不公平的,此外,不同类型的解释也能更有效地揭示不同的公平问题,因此我们讨论了提供个性化和自适应的解释来支持机器学习系统的公平判断。
Jan, 2019
本研究旨在检查现有知识中关于机器学习模型中的偏见和不公平的研究,并识别减弱算法不公平和偏差的方法、公平性度量和支持工具。经过系统文献综述,发现了 40 篇可用于 Scopus、IEEE Xplore, Web of Science 和 Google Scholar 知识库的文章。结果表明,针对 ML 技术的多种偏见和不公平检测与减轻方法,在文献中定义了明确的度量标准,可以突出不同的度量标准。因此建议进一步研究,以定义在每种情况下应采用的技术和指标,以标准化并确保机器学习模型的公正性,从而允许最适当的度量标准来检测偏见和不公平。
Feb, 2022
本文展示了在真实世界中基于 40 个高评分 Kaggle 模型的公平性评估及其 7 种缓解技术的实证研究。结果发现,部分优化技术会导致模型失公,尽管机器学习库中有公平控制机制,但这些机制未被记录。最佳的降低失公的方法往往存在权衡和代价.
May, 2020
本文通过在金融、医疗保健、大学招生和美国司法系统等四个领域的实际数据中审计了不同保护子组的解释质量,发现不同子组的近似质量显着不同,而解释深度学习模型的近似质量差异存在着公平性挑战,需要进一步解决。
May, 2022
我们提出了一个可解释的框架 - 公平感知可解释建模(FAIM),以提高模型的公平性,同时保持性能,通过交互界面从一组高性能模型中识别出一个 “更公平” 的模型,并推动数据驱动证据和临床经验的整合,以增强情境公平性。我们通过使用两个真实世界数据库(MIMIC-IV-ED 和 SGH-ED)在预测入院时减少性别和种族偏见方面展示了 FAIM 的价值。我们展示了针对这两个数据集,FAIM 模型不仅表现出令人满意的区分能力,而且通过广泛使用的公平度量指标显著减轻了偏见,胜过常用的偏见减轻方法。我们的方法展示了在不牺牲性能的情况下提高公平性的可行性,并提供一种邀请领域专家参与的建模模式,促进定制人工智能公平性的多学科工作。
Mar, 2024