朝向临床AI公正:一个翻译角度
本文提出了一个以医学、社会学和反种族主义为灵感的公平人工智能框架,定义了一个新词bisinformation,鼓励研究人员研究它并使用AI研究、发现和减轻对社会中的少数群体造成的有偏见、有害的或虚假健康信息,进而改善患者的结果和福祉。
Sep, 2021
这篇综述论文概述了高科技医疗领域中人工智能系统的算法公正性问题,阐述了当前临床工作流程中算法偏见(如图像采集,基因变异,内观者标记变异性等)导致的不公平医疗差距并探讨了联邦学习、分离和模型解释等新兴技术在AI-SaMD发展中的作用。
Oct, 2021
本文讨论了人工智能在医疗领域中的应用,特别是在医学图像分析中的最新进展、现有标准以及应用人工智能所需考虑的伦理问题和最佳实践。我们探讨了人工智能的技术挑战和伦理挑战,以及在医院和公共组织中部署人工智能的影响和关键技术措施。最后,我们提出了未来解决人工智能在医疗应用中的伦理挑战的建议和方向。
Apr, 2023
人工智能系统在临床实践中有潜力革新,包括提高诊断准确性和手术决策,并降低成本和人力。然而,需要认识到这些系统可能会延续社会不公平或表现出以种族或性别为基础的偏见。为了准确可靠地应用人工智能模型于临床环境中,理解和解决潜在的偏见至关重要。通过调查生物医学自然语言处理或计算机视觉领域的最新出版物,我们对生物医学领域中应用的偏见处理方法进行了概述,并讨论了每种方法的优势和弱点。最后,我们还回顾了从一般领域中可能应用于生物医学领域以解决偏见和提高公平性的其他潜在方法。
Feb, 2024
人工智能(AI)模型在我们的生活的各个方面得到广泛应用,如医疗、教育和就业。鉴于它们在许多敏感环境中使用并做出可能改变生活的决策,潜在的偏见结果成为一个紧迫问题。开发人员应确保这些模型不表现出任何意外的歧视做法,如对特定性别、种族或残疾人的偏袒。随着AI系统的广泛应用,研究人员和从业者对不公平的模型意识越来越强,并致力于减少其中的偏见。本文综述了研究人员在确保AI系统公平性方面所做的不同努力。我们探讨了当前文献中关于公平性的不同定义,通过对不同类型的偏见进行分类,研究了不同应用领域中存在的出现偏见的AI案例。我们对研究人员在减少AI模型偏见方面采用的方法和技术进行了详细研究。此外,我们还深入探讨了偏见模型对用户体验的影响以及在开发和部署此类模型时需要考虑的伦理问题。我们希望通过分享这份全面的综述,帮助研究人员和从业者理解AI系统中公平性和偏见的复杂问题。通过此综述,我们旨在促进公平和负责任AI领域的进一步讨论。
Mar, 2024
医学领域中人工智能(AI)的道德整合需要解决公平性这个高度依赖上下文的概念。本文通过详细的证据缺口分析,系统地指出了医疗数据和AI公平解决方案中存在的一些缺陷。我们强调了在许多医学领域中AI公平研究的稀缺性。此外,我们分析还凸显了对群体公平的重要依赖,旨在从宏观医疗系统的角度确保人口统计群体之间的平等;相比之下,对于更精细化程度上的个人公平性常常被忽视了。为了填补这些间隙,我们的综述为医疗和AI研究社区提出了可操作的策略。除了在医疗中应用现有的AI公平方法,我们进一步强调了将医疗专业人员纳入其中,以完善AI公平概念和方法,以确保AI在医疗领域中具有上下文相关性和道德健全性。
May, 2024
在临床决策和预防现有医疗不公平中确保机器学习算法在所有患者群体中安全有效,不会对特定患者造成不利影响,对于医学信息学社区非常重要。本教程的目标是向医学信息学社区介绍机器学习中的公平常见概念,重点关注临床应用和实际实施。
Jun, 2024
本研究探讨了公众对医疗推荐中公平性的理解,填补了现有研究空白。通过调查四种公平性指标的认知,揭示公众在算法公平性方面的理解普遍偏低,强调了对公平性教育和信息传递的必要性。研究结果表明,一刀切的公平性方法可能不够有效,提出需要根据具体情境设计公平的AI系统。
Sep, 2024
本文研究了人工智能领域中缓解偏见和增强公平性的技术解决方案的实际局限,特别是在医疗保健环境中的应用。通过对偏见和公平性的定义、缓解策略的优先选择、解决方案有效性的时间节点、适用的人群及设计背景等五个关键维度的结构性分析,我们揭示了技术解决方案在实际应用中的不足,并讨论了如何利用价值敏感AI框架促进利益相关者参与,从而提升偏见缓解的有效性。
Oct, 2024