检测医疗AI模型中的算法偏见
该研究探讨了使用机器学习指导临床决策可能加剧现有的健康差距问题的潜力,并分析了算法公平的适用性、技术限制以及与机器学习在医疗保健中使用相关的社会技术背景。研究结果表明,在对各组之间的预测分布差异进行惩罚的情况下,几乎所有团体内的多项绩效指标都会降低,并且算法公平性方法在消除健康差距方面仍存在许多有待解决的问题。
Jul, 2020
这篇论文探讨了机器学习算法在高影响临床决策系统中应用的公平性、可解释性和透明度,提出了一种基于倾向评分和决策树的算法指南,帮助临床医生识别模型的可预测缺陷,同时指导算法开发人员改进数据源和结构以解决这些缺陷。
Nov, 2020
这篇综述论文概述了高科技医疗领域中人工智能系统的算法公正性问题,阐述了当前临床工作流程中算法偏见(如图像采集,基因变异,内观者标记变异性等)导致的不公平医疗差距并探讨了联邦学习、分离和模型解释等新兴技术在AI-SaMD发展中的作用。
Oct, 2021
本研究提出了一种基于软件工程原理的人工智能框架,用于在保证医疗保健公平的同时识别和缓解数据和模型中的偏见和歧视,通过案例研究表明数据中的系统性偏见会导致模型预测中的偏差增大,并提出了机器学习方法来预防这种偏见。未来的研究目标是在实际的临床环境中测试和验证所提出的ML框架,以评估其在促进健康公平方面的影响。
May, 2023
机器学习方法在临床决策中的重要性日益提升,因此解决公平性问题变得越来越迫切。尽管已经有很多工作致力于检测和改善算法偏见,但目前的方法存在缺陷和潜在危害。我们提出因果角度来研究算法偏见,强调数据集偏见的不同来源可能看起来相似,但需要采用截然不同的缓解策略。我们从盛行度、呈现度和注释差异三个因果偏见机制的角度进行分析。我们提供了一个实用的三步骤框架,用于思考医学影像公平性,支持开发安全和公正的AI预测模型。
Jul, 2023
人工智能系统在临床实践中有潜力革新,包括提高诊断准确性和手术决策,并降低成本和人力。然而,需要认识到这些系统可能会延续社会不公平或表现出以种族或性别为基础的偏见。为了准确可靠地应用人工智能模型于临床环境中,理解和解决潜在的偏见至关重要。通过调查生物医学自然语言处理或计算机视觉领域的最新出版物,我们对生物医学领域中应用的偏见处理方法进行了概述,并讨论了每种方法的优势和弱点。最后,我们还回顾了从一般领域中可能应用于生物医学领域以解决偏见和提高公平性的其他潜在方法。
Feb, 2024
本研究针对医疗领域中人工智能应用的公平性和可解释性的关键需求,提出了一种通过预测模型来改善公平性的方法,并介绍了一种新型特征重要性算法,用于解释各个特征对公平性的贡献。该方法不仅有助于识别和减轻预测模型中的偏见,也增加了模型预测的透明度和公平性,从而为提供更公平可信赖的医疗服务做出了贡献。
Apr, 2024
在临床决策和预防现有医疗不公平中确保机器学习算法在所有患者群体中安全有效,不会对特定患者造成不利影响,对于医学信息学社区非常重要。本教程的目标是向医学信息学社区介绍机器学习中的公平常见概念,重点关注临床应用和实际实施。
Jun, 2024
本研究解决了 ICU 患者死亡率预测模型在不同种族、性别和医疗诊断患者群体中的表现差异问题。提出了一种公平性监测方法,强调公平性分析相比传统准确性指标能提供更详细的模型性能比较。研究表明,考虑公平性因素能够有效提高模型在不同患者群体中的适用性和可靠性。
Oct, 2024