通过人工智能实现公平:医疗信息中的偏见减少
人工智能系统在临床实践中有潜力革新,包括提高诊断准确性和手术决策,并降低成本和人力。然而,需要认识到这些系统可能会延续社会不公平或表现出以种族或性别为基础的偏见。为了准确可靠地应用人工智能模型于临床环境中,理解和解决潜在的偏见至关重要。通过调查生物医学自然语言处理或计算机视觉领域的最新出版物,我们对生物医学领域中应用的偏见处理方法进行了概述,并讨论了每种方法的优势和弱点。最后,我们还回顾了从一般领域中可能应用于生物医学领域以解决偏见和提高公平性的其他潜在方法。
Feb, 2024
本研究提出了一种基于软件工程原理的人工智能框架,用于在保证医疗保健公平的同时识别和缓解数据和模型中的偏见和歧视,通过案例研究表明数据中的系统性偏见会导致模型预测中的偏差增大,并提出了机器学习方法来预防这种偏见。未来的研究目标是在实际的临床环境中测试和验证所提出的 ML 框架,以评估其在促进健康公平方面的影响。
May, 2023
这篇综述论文概述了高科技医疗领域中人工智能系统的算法公正性问题,阐述了当前临床工作流程中算法偏见(如图像采集,基因变异,内观者标记变异性等)导致的不公平医疗差距并探讨了联邦学习、分离和模型解释等新兴技术在 AI-SaMD 发展中的作用。
Oct, 2021
医学领域中人工智能(AI)的道德整合需要解决公平性这个高度依赖上下文的概念。本文通过详细的证据缺口分析,系统地指出了医疗数据和 AI 公平解决方案中存在的一些缺陷。我们强调了在许多医学领域中 AI 公平研究的稀缺性。此外,我们分析还凸显了对群体公平的重要依赖,旨在从宏观医疗系统的角度确保人口统计群体之间的平等;相比之下,对于更精细化程度上的个人公平性常常被忽视了。为了填补这些间隙,我们的综述为医疗和 AI 研究社区提出了可操作的策略。除了在医疗中应用现有的 AI 公平方法,我们进一步强调了将医疗专业人员纳入其中,以完善 AI 公平概念和方法,以确保 AI 在医疗领域中具有上下文相关性和道德健全性。
May, 2024
该研究通过对人群亚组之间的疾病分类器性能分析,发现低诊断率造成的表现差异引起了关注,进一步强调了在训练数据中嵌入的人类偏见可能会放大现有的健康差异,并探讨了评估模型公正性的一些困难。
Jan, 2022
本文讨论了人工智能在医疗保健等高风险领域中的公平性问题,强调了技术与临床角度之间的不协调性,提出了跨学科合作的必要性,并为解决与人工智能公平性相关的临床问题提供了可能的解决方案。
Apr, 2023
人工智能(AI)模型在我们的生活的各个方面得到广泛应用,如医疗、教育和就业。鉴于它们在许多敏感环境中使用并做出可能改变生活的决策,潜在的偏见结果成为一个紧迫问题。开发人员应确保这些模型不表现出任何意外的歧视做法,如对特定性别、种族或残疾人的偏袒。随着 AI 系统的广泛应用,研究人员和从业者对不公平的模型意识越来越强,并致力于减少其中的偏见。本文综述了研究人员在确保 AI 系统公平性方面所做的不同努力。我们探讨了当前文献中关于公平性的不同定义,通过对不同类型的偏见进行分类,研究了不同应用领域中存在的出现偏见的 AI 案例。我们对研究人员在减少 AI 模型偏见方面采用的方法和技术进行了详细研究。此外,我们还深入探讨了偏见模型对用户体验的影响以及在开发和部署此类模型时需要考虑的伦理问题。我们希望通过分享这份全面的综述,帮助研究人员和从业者理解 AI 系统中公平性和偏见的复杂问题。通过此综述,我们旨在促进公平和负责任 AI 领域的进一步讨论。
Mar, 2024
本研究探讨了医疗影像分析中的人工智能系统的公平性问题,特别是围绕判定偏见和校准偏见的研究,并展示了通常使用的多种校准指标对样本量存在系统性偏差的情况,如果未考虑到这一点,可能会导致错误的公平性分析。
May, 2023
通过一种新的分析框架,我们展示了如何系统性、客观地研究医学图像中的偏见对人工智能模型的影响,并评估偏见缓解策略在性能差异方面的有效性,从而支持开发健壮、负责任的临床人工智能。
Nov, 2023
人工智能(AI)在招聘、金融、医疗和司法等领域展示了卓越的能力,然而,AI 系统的偏见引发了伦理和社会关切,强调了有效的公平性测试方法的必要性。本文回顾了当前关于公平性测试的研究,特别是其通过基于搜索的测试的应用。我们的分析突出了在解决 AI 系统偏见方面的进展和改进领域。未来的研究应专注于利用已建立的基于搜索的测试方法学进行公平性测试。
Nov, 2023