深度胸透分类器中的公平差距
通过使用深度学习模型,本研究在疾病诊断方面取得了重要进展,在使用胸部 X 射线上具有很大潜力。然而,这些模型中存在的固有偏见可能导致预测准确性在不同保护组之间存在差异。为了实现准确的诊断结果并确保在交叉组之间公平性,我们提出了一个框架,用于在高维胸部 X 射线多标签分类任务中实现公平性。该框架不仅考虑传统的受保护属性,还考虑了社会决定因素中的复杂交互作用,使得公平性的评估更加细致。我们提出了一种简单而强大的方法,通过使用跨组平衡的数据集来重新训练预训练模型的最后分类层。此外,我们还考虑了公平性约束,并在多标签设置中集成了类别平衡微调。我们在 MIMIC-CXR 数据集上评估了我们的方法,结果表明与基准方法相比,我们的框架在准确性和公平性之间实现了最佳权衡。
Mar, 2024
通过对 9 种方法公平指标改进的性能进行基准测试,我们发现,相对于实现群体公平的方法,实现最差群体表现的方法并不能胜任在临床设置中对分类器公平进行改进,这一结果证实了对于在数据生成功能机制中存在歧视的机理的调查在临床环境中仍然具有实用性。
Mar, 2022
本研究研究了深度学习应用于胸部 X 光片的自动诊断疾病方面存在的问题,提出了针对偏斜类别的解决方案,并通过简单的迁移学习方法进行了验证。
Sep, 2020
本文提出了使用生成对抗网络(GAN)的框架,用于可视化两个人口统计子组别之间最不同的特征,从而解决由于胸部 X 射线数据集包含与受保护人口统计属性(如种族和性别)强相关的视觉特征而引发的公平性问题,因为这些因素可能被下游算法用于临床预测。
Apr, 2023
本文旨在通过比较隐私保护性训练和非隐私训练,在胸部放射图诊断方面评估两种方法的准确性和公平性,研究发现,在隐私预算为 7.89 的情况下,DP 卷积神经网络与非私有卷积神经网络相比,在保持较高准确性的前提下,性能仅下降了 2.6% 左右,同时,隐私保护训练并不会加剧针对年龄、性别或共病的歧视。
Feb, 2023
人工智能在医学影像学中逼近人类水平的表现,但其是否在不同人群中造成不公平的预测是一个关键问题。本研究对医学影像学中人工智能使用人口统计学编码的程度进行了深入调查,发现在新的测试环境中,较少编码人口统计属性的模型往往表现出更好的公平性。我们的研究为医学影像学模型在超出初始训练环境中保持性能和公平性提供了最佳实践。
Dec, 2023
通过使用领域特定的公平度量,我们评估了反复学习策略在医学图像分类任务中的偏差演化,发现伪标签策略具有更小的偏差,因此在考虑模型公平性的现实场景中应优先选择该策略。
Apr, 2024
用基于放射学特征的随机森林模型训练的数据显示,人工智能模型在使用不平衡的受保护属性数据进行训练时可能存在偏见,这对预测肿瘤分子亚型及肿瘤的种族产生有影响,导致模型在训练所属种族的测试数据上表现优秀。
Sep, 2023