Mar, 2024

用于信任机器学习的公平可解释建模(FAIM)在医疗保健领域

TL;DR我们提出了一个可解释的框架 - 公平感知可解释建模(FAIM),以提高模型的公平性,同时保持性能,通过交互界面从一组高性能模型中识别出一个“更公平”的模型,并推动数据驱动证据和临床经验的整合,以增强情境公平性。我们通过使用两个真实世界数据库(MIMIC-IV-ED和SGH-ED)在预测入院时减少性别和种族偏见方面展示了FAIM的价值。我们展示了针对这两个数据集,FAIM模型不仅表现出令人满意的区分能力,而且通过广泛使用的公平度量指标显著减轻了偏见,胜过常用的偏见减轻方法。我们的方法展示了在不牺牲性能的情况下提高公平性的可行性,并提供一种邀请领域专家参与的建模模式,促进定制人工智能公平性的多学科工作。