放射学人工智能中的公平性导航:概念、后果和关键考虑
研究人员开发了一个名为 Aequitas 的开源工具包,该工具包可帮助数据科学家、机器学习研究人员和政策制定者测试多个偏差和公平度量标准,以实现对算法决策制定系统进行有根据的和公平的决策。
Nov, 2018
本研究探讨了医疗影像分析中的人工智能系统的公平性问题,特别是围绕判定偏见和校准偏见的研究,并展示了通常使用的多种校准指标对样本量存在系统性偏差的情况,如果未考虑到这一点,可能会导致错误的公平性分析。
May, 2023
人工智能在医学影像学中逼近人类水平的表现,但其是否在不同人群中造成不公平的预测是一个关键问题。本研究对医学影像学中人工智能使用人口统计学编码的程度进行了深入调查,发现在新的测试环境中,较少编码人口统计属性的模型往往表现出更好的公平性。我们的研究为医学影像学模型在超出初始训练环境中保持性能和公平性提供了最佳实践。
Dec, 2023
这篇综述论文概述了高科技医疗领域中人工智能系统的算法公正性问题,阐述了当前临床工作流程中算法偏见(如图像采集,基因变异,内观者标记变异性等)导致的不公平医疗差距并探讨了联邦学习、分离和模型解释等新兴技术在 AI-SaMD 发展中的作用。
Oct, 2021
医学领域中人工智能(AI)的道德整合需要解决公平性这个高度依赖上下文的概念。本文通过详细的证据缺口分析,系统地指出了医疗数据和 AI 公平解决方案中存在的一些缺陷。我们强调了在许多医学领域中 AI 公平研究的稀缺性。此外,我们分析还凸显了对群体公平的重要依赖,旨在从宏观医疗系统的角度确保人口统计群体之间的平等;相比之下,对于更精细化程度上的个人公平性常常被忽视了。为了填补这些间隙,我们的综述为医疗和 AI 研究社区提出了可操作的策略。除了在医疗中应用现有的 AI 公平方法,我们进一步强调了将医疗专业人员纳入其中,以完善 AI 公平概念和方法,以确保 AI 在医疗领域中具有上下文相关性和道德健全性。
May, 2024
本研究提出了一种基于软件工程原理的人工智能框架,用于在保证医疗保健公平的同时识别和缓解数据和模型中的偏见和歧视,通过案例研究表明数据中的系统性偏见会导致模型预测中的偏差增大,并提出了机器学习方法来预防这种偏见。未来的研究目标是在实际的临床环境中测试和验证所提出的 ML 框架,以评估其在促进健康公平方面的影响。
May, 2023
通过一种新的分析框架,我们展示了如何系统性、客观地研究医学图像中的偏见对人工智能模型的影响,并评估偏见缓解策略在性能差异方面的有效性,从而支持开发健壮、负责任的临床人工智能。
Nov, 2023
人工智能(AI)模型在我们的生活的各个方面得到广泛应用,如医疗、教育和就业。鉴于它们在许多敏感环境中使用并做出可能改变生活的决策,潜在的偏见结果成为一个紧迫问题。开发人员应确保这些模型不表现出任何意外的歧视做法,如对特定性别、种族或残疾人的偏袒。随着 AI 系统的广泛应用,研究人员和从业者对不公平的模型意识越来越强,并致力于减少其中的偏见。本文综述了研究人员在确保 AI 系统公平性方面所做的不同努力。我们探讨了当前文献中关于公平性的不同定义,通过对不同类型的偏见进行分类,研究了不同应用领域中存在的出现偏见的 AI 案例。我们对研究人员在减少 AI 模型偏见方面采用的方法和技术进行了详细研究。此外,我们还深入探讨了偏见模型对用户体验的影响以及在开发和部署此类模型时需要考虑的伦理问题。我们希望通过分享这份全面的综述,帮助研究人员和从业者理解 AI 系统中公平性和偏见的复杂问题。通过此综述,我们旨在促进公平和负责任 AI 领域的进一步讨论。
Mar, 2024
该研究介绍了 MEDFAIR 框架,可以用于医学成像机器学习模型的公平性评估和算法的基准测试,通过实验发现模型选择标准可以对公平性结果产生重要影响,并在不同的应用场景和伦理原则下提供了建议。
Oct, 2022
本文提出了一个以医学、社会学和反种族主义为灵感的公平人工智能框架,定义了一个新词 bisinformation,鼓励研究人员研究它并使用 AI 研究、发现和减轻对社会中的少数群体造成的有偏见、有害的或虚假健康信息,进而改善患者的结果和福祉。
Sep, 2021