现实世界深度学习应用中的模型选择差异影响
该研究通过对人群亚组之间的疾病分类器性能分析,发现低诊断率造成的表现差异引起了关注,进一步强调了在训练数据中嵌入的人类偏见可能会放大现有的健康差异,并探讨了评估模型公正性的一些困难。
Jan, 2022
本文阐述了机器学习模型中出现偏见导致算法决策对特定群体或少数群体的歧视的问题,提出了公平学习问题的数学框架,运用标准差异影响指数量化偏见,最终检查了不同方法在二元分类结果中减少偏见的性能,并表明一些直观方法并不有效。这揭示了在训练观测结果包含偏见时,尝试制作公正的机器学习模型可能是一项特别具有挑战性的任务。
Mar, 2020
本文展示了在真实世界中基于 40 个高评分 Kaggle 模型的公平性评估及其 7 种缓解技术的实证研究。结果发现,部分优化技术会导致模型失公,尽管机器学习库中有公平控制机制,但这些机制未被记录。最佳的降低失公的方法往往存在权衡和代价.
May, 2020
调查表明,人工智能领域中存在各种偏见和不公,因此机器学习研究人员定义了公平性的分类,以解决现有 AI 系统中的偏见问题。此外,调查还考察了在 AI 的不同领域和子领域中,现有技术的问题及其应对措施,以期鼓励研究人员在其各自领域中研究此问题。
Aug, 2019
该研究讨论了使用神经网络建立心脏数据的图像分割模型时,数据库不平衡导致的种族偏见,提出了三种解决方案,并发现 protected group models 的使用最有效。
Jun, 2021
研究使用人工智能在医学影像中进行自动化常规任务的过程中,模型选择对主体性别和种族的数据不平衡导致的算法偏见有显著影响,在心脏磁共振图像分割中,我们评估了三种基于卷积神经网络的模型和一种视觉变换器模型,发现其中三种模型存在显著性别偏见,而所有模型都存在种族偏见,然而偏见的严重程度和性质因模型选择而异,凸显了在医学影像任务的公平 AI 分割模型训练中模型选择的重要性。
Aug, 2023
本研究提出了一种基于软件工程原理的人工智能框架,用于在保证医疗保健公平的同时识别和缓解数据和模型中的偏见和歧视,通过案例研究表明数据中的系统性偏见会导致模型预测中的偏差增大,并提出了机器学习方法来预防这种偏见。未来的研究目标是在实际的临床环境中测试和验证所提出的 ML 框架,以评估其在促进健康公平方面的影响。
May, 2023
在普遍采用机器学习的医疗领域,自动化的社会偏见可能会加剧健康差距,我们探索了从特征选择的角度来解决算法公平性。传统的特征选择方法忽视了不同子群体之间这些因素的差异,而我们的公平特征选择方法考虑了所有人口群体的平等重要性。我们在三个公开可用的医疗数据集上测试了我们的方法,在这三个数据集上,我们观察到在公平性度量指标上的改善,同时平衡准确率仅有轻微下降。我们的方法解决了公平机器学习背景下的分配和程序公正性问题。
Mar, 2024