公平教育AI用于解释性创伤性脓毒症死亡预测模型
该研究关注深度学习模型在医疗场景下的可解释性和公平性问题,以MIMIC-IV数据集为例,分析了预测模型的可解释性和预测公平性,并揭示了该数据集中存在的偏差和不平等对策。
Feb, 2021
AI在医疗应用中的最新进展显示出在诊断和疾病预测方面超越人类表现的巨大潜力。然而,随着AI模型的复杂性日益增加,人们对其不透明性、潜在偏见和解释性的需求也越来越担忧。为了确保AI系统的信任和可靠性,特别是在临床风险预测模型中,解释性变得至关重要。这篇综述中,我们讨论了这些概念之间的关系,因为它们经常一起或可互换使用。该综述还讨论了最近在发展用于临床风险预测的可解释模型方面的进展,强调了定量和临床评估和验证在临床实践中的多个常见模态上的重要性。它强调了外部验证和多种解释性方法的结合以增强信任和公平性的必要性。采用严格的测试,例如使用具有已知生成因素的合成数据集,可以进一步提高解释性方法的可靠性。开放访问和代码共享资源对于透明性和可重现性至关重要,以促进可解释性研究的增长和可信度。尽管存在挑战,但将解释性纳入临床风险预测的端到端方法,包括从临床医生到开发人员的利益相关者,对于取得成功至关重要。
Aug, 2023
该研究旨在探讨AI系统的设计要求,以支持临床专家在早期诊断败血症方面做出更好的决策。通过对现有AI预测模块的基于医疗记录的电子健康档案系统的临床专家的形态学研究,该研究构建了SepsisLab,通过AI算法预测败血症发展并可视化预测的不确定性,并提供减少不确定性的可行建议,从而展示了SepsisLab在人机协作方面的潜力,对未来的AI辅助败血症诊断和其他高风险医学决策具有重要意义。
Sep, 2023
通过知识蒸馏和约束变分推断,我们使用一个高预测能力的“教师”神经网络模型来训练一个“学生”潜在变量模型,学习可解释的隐层表示,以实现对脓毒症预测结果的高准确性。
Nov, 2023
通过使用CART算法,本研究提出了一种创新的框架,用于检测医疗人工智能决策支持系统中的算法偏见。通过一系列合成数据实验和格拉迪纪念医院的电子病历实验,我们验证了该方法的准确性和实用性,进一步证明了它在临床环境中作为确保公平和公正的关键工具。
Dec, 2023
我们提出了一个可解释的框架 - 公平感知可解释建模(FAIM),以提高模型的公平性,同时保持性能,通过交互界面从一组高性能模型中识别出一个“更公平”的模型,并推动数据驱动证据和临床经验的整合,以增强情境公平性。我们通过使用两个真实世界数据库(MIMIC-IV-ED和SGH-ED)在预测入院时减少性别和种族偏见方面展示了FAIM的价值。我们展示了针对这两个数据集,FAIM模型不仅表现出令人满意的区分能力,而且通过广泛使用的公平度量指标显著减轻了偏见,胜过常用的偏见减轻方法。我们的方法展示了在不牺牲性能的情况下提高公平性的可行性,并提供一种邀请领域专家参与的建模模式,促进定制人工智能公平性的多学科工作。
Mar, 2024
鉴于手术操作的规模庞大和术后死亡率的显著高位,评估和管理手术并发症已成为一个重要的公共卫生问题。为了解决现有人工智能工具在风险监测和诊断方面缺乏适当的可解释性、公平性和可复现性的问题,我们提出了一个解释性人工智能(XAI)框架,旨在回答为什么、为何不、如何、如果以及其他问题,目标是提高人工智能模型的可解释性和透明度。我们融合了各种技术,如局部可解释的模型无关解释(LIME)、SHapley Additive Explanation(SHAP)、反事实解释、模型卡片、交互式特征操作界面以及相似患者的识别来解决这些问题。我们展示了一个遵循这一框架用于预测术后重大并发症的XAI界面原型。这个初始实现为我们的XAI框架的广阔解释潜力提供了有价值的见解,并代表了朝着其临床应用迈出的初步一步。
Apr, 2024
在临床决策和预防现有医疗不公平中确保机器学习算法在所有患者群体中安全有效,不会对特定患者造成不利影响,对于医学信息学社区非常重要。本教程的目标是向医学信息学社区介绍机器学习中的公平常见概念,重点关注临床应用和实际实施。
Jun, 2024
本研究针对院内脓毒症死亡预测中的特点选择和模型可解释性不足的问题,提出了一种可解释且精准的机器学习模型。通过对MIMIC-III数据库的ICU患者记录进行详细分析,随机森林模型在精确度和AUC方面表现优异,证明了数据驱动的机器学习在医疗保健中提高院内死亡预测的潜力。
Aug, 2024
本研究解决了 ICU 患者死亡率预测模型在不同种族、性别和医疗诊断患者群体中的表现差异问题。提出了一种公平性监测方法,强调公平性分析相比传统准确性指标能提供更详细的模型性能比较。研究表明,考虑公平性因素能够有效提高模型在不同患者群体中的适用性和可靠性。
Oct, 2024