面向医学影像人工智能的客观系统偏见评估
该研究通过对人群亚组之间的疾病分类器性能分析,发现低诊断率造成的表现差异引起了关注,进一步强调了在训练数据中嵌入的人类偏见可能会放大现有的健康差异,并探讨了评估模型公正性的一些困难。
Jan, 2022
本研究探讨了医疗影像分析中的人工智能系统的公平性问题,特别是围绕判定偏见和校准偏见的研究,并展示了通常使用的多种校准指标对样本量存在系统性偏差的情况,如果未考虑到这一点,可能会导致错误的公平性分析。
May, 2023
人工智能系统在临床实践中有潜力革新,包括提高诊断准确性和手术决策,并降低成本和人力。然而,需要认识到这些系统可能会延续社会不公平或表现出以种族或性别为基础的偏见。为了准确可靠地应用人工智能模型于临床环境中,理解和解决潜在的偏见至关重要。通过调查生物医学自然语言处理或计算机视觉领域的最新出版物,我们对生物医学领域中应用的偏见处理方法进行了概述,并讨论了每种方法的优势和弱点。最后,我们还回顾了从一般领域中可能应用于生物医学领域以解决偏见和提高公平性的其他潜在方法。
Feb, 2024
研究使用人工智能在医学影像中进行自动化常规任务的过程中,模型选择对主体性别和种族的数据不平衡导致的算法偏见有显著影响,在心脏磁共振图像分割中,我们评估了三种基于卷积神经网络的模型和一种视觉变换器模型,发现其中三种模型存在显著性别偏见,而所有模型都存在种族偏见,然而偏见的严重程度和性质因模型选择而异,凸显了在医学影像任务的公平 AI 分割模型训练中模型选择的重要性。
Aug, 2023
人工智能在医学影像学中逼近人类水平的表现,但其是否在不同人群中造成不公平的预测是一个关键问题。本研究对医学影像学中人工智能使用人口统计学编码的程度进行了深入调查,发现在新的测试环境中,较少编码人口统计属性的模型往往表现出更好的公平性。我们的研究为医学影像学模型在超出初始训练环境中保持性能和公平性提供了最佳实践。
Dec, 2023
通过使用 CART 算法,本研究提出了一种创新的框架,用于检测医疗人工智能决策支持系统中的算法偏见。通过一系列合成数据实验和格拉迪纪念医院的电子病历实验,我们验证了该方法的准确性和实用性,进一步证明了它在临床环境中作为确保公平和公正的关键工具。
Dec, 2023
该研究讨论了使用神经网络建立心脏数据的图像分割模型时,数据库不平衡导致的种族偏见,提出了三种解决方案,并发现 protected group models 的使用最有效。
Jun, 2021
该研究介绍了 MEDFAIR 框架,可以用于医学成像机器学习模型的公平性评估和算法的基准测试,通过实验发现模型选择标准可以对公平性结果产生重要影响,并在不同的应用场景和伦理原则下提供了建议。
Oct, 2022