探究医学图像分析中的标定偏差问题
该研究探讨了使用机器学习指导临床决策可能加剧现有的健康差距问题的潜力,并分析了算法公平的适用性、技术限制以及与机器学习在医疗保健中使用相关的社会技术背景。研究结果表明,在对各组之间的预测分布差异进行惩罚的情况下,几乎所有团体内的多项绩效指标都会降低,并且算法公平性方法在消除健康差距方面仍存在许多有待解决的问题。
Jul, 2020
该研究讨论了使用神经网络建立心脏数据的图像分割模型时,数据库不平衡导致的种族偏见,提出了三种解决方案,并发现 protected group models 的使用最有效。
Jun, 2021
这篇综述论文概述了高科技医疗领域中人工智能系统的算法公正性问题,阐述了当前临床工作流程中算法偏见(如图像采集,基因变异,内观者标记变异性等)导致的不公平医疗差距并探讨了联邦学习、分离和模型解释等新兴技术在AI-SaMD发展中的作用。
Oct, 2021
该研究通过对人群亚组之间的疾病分类器性能分析,发现低诊断率造成的表现差异引起了关注,进一步强调了在训练数据中嵌入的人类偏见可能会放大现有的健康差异,并探讨了评估模型公正性的一些困难。
Jan, 2022
本文评述了人工智能在放射学中的应用,特别关注了平等和比例性公正等算法的实际使用以及如何使用开源的Aequitas工具包进行偏见审计,以确保数据集的公正性和避免AI模型中的隐含偏见。
Jun, 2023
机器学习方法在临床决策中的重要性日益提升,因此解决公平性问题变得越来越迫切。尽管已经有很多工作致力于检测和改善算法偏见,但目前的方法存在缺陷和潜在危害。我们提出因果角度来研究算法偏见,强调数据集偏见的不同来源可能看起来相似,但需要采用截然不同的缓解策略。我们从盛行度、呈现度和注释差异三个因果偏见机制的角度进行分析。我们提供了一个实用的三步骤框架,用于思考医学影像公平性,支持开发安全和公正的AI预测模型。
Jul, 2023
人工智能在医学影像学中逼近人类水平的表现,但其是否在不同人群中造成不公平的预测是一个关键问题。本研究对医学影像学中人工智能使用人口统计学编码的程度进行了深入调查,发现在新的测试环境中,较少编码人口统计属性的模型往往表现出更好的公平性。我们的研究为医学影像学模型在超出初始训练环境中保持性能和公平性提供了最佳实践。
Dec, 2023
人工智能系统在临床实践中有潜力革新,包括提高诊断准确性和手术决策,并降低成本和人力。然而,需要认识到这些系统可能会延续社会不公平或表现出以种族或性别为基础的偏见。为了准确可靠地应用人工智能模型于临床环境中,理解和解决潜在的偏见至关重要。通过调查生物医学自然语言处理或计算机视觉领域的最新出版物,我们对生物医学领域中应用的偏见处理方法进行了概述,并讨论了每种方法的优势和弱点。最后,我们还回顾了从一般领域中可能应用于生物医学领域以解决偏见和提高公平性的其他潜在方法。
Feb, 2024
人工智能在医学影像应用中取得了专家级性能。然而,研究发现目前的视觉语言基础模型在胸部X射线诊断中普遍存在算法公平性问题,导致偏见对待历史上被边缘化的群体,并延迟特定人群的重要医疗护理,严重加剧现有的护理差异,对公平医疗保障带来挑战。
Feb, 2024
基于深度学习模型的皮肤疾病诊断中,为了解决公平性问题且不损害预测准确性,我们提出了一种基于两个偏倚的教师模型的方法,通过权重损失函数进行偏倚与去偏倚的训练,提高了模型的准确度和公平性。
May, 2024