重新审视技术偏见缓解策略
本文提出了一个以医学、社会学和反种族主义为灵感的公平人工智能框架,定义了一个新词bisinformation,鼓励研究人员研究它并使用AI研究、发现和减轻对社会中的少数群体造成的有偏见、有害的或虚假健康信息,进而改善患者的结果和福祉。
Sep, 2021
这篇综述论文概述了高科技医疗领域中人工智能系统的算法公正性问题,阐述了当前临床工作流程中算法偏见(如图像采集,基因变异,内观者标记变异性等)导致的不公平医疗差距并探讨了联邦学习、分离和模型解释等新兴技术在AI-SaMD发展中的作用。
Oct, 2021
本文评估并比较了来自哲学、女性主义研究、批判性种族和民族研究、法律研究、人类学和科学技术研究等非计算学科的现有批评,旨在提供 ML 公正技术干预的跨学科理解,以此产生社会上最边缘化群体的公正结果,最后讨论了基于这些批评的未来 ML 公正研究方向。
May, 2022
本文总结和评估了追求人工智能系统公正性的各种方法和技术,提出了定义、衡量和预防人工智能偏见的实用指南,并针对评估人工智能系统偏见的一些简单但常见方法提出了更为复杂和有效的替代方案。此外它还提供了一个共同的语言来解决领域内普遍存在的争议和混乱。它描述了涉及人工智能公正性的各种权衡,并提供了实用建议来平衡这些权衡。本文提供了关于人工智能从业者、组织领导、政策制定者的讨论和指南,以及为技术观众提供更多相关资料的链接。通过举例清晰阐述了本文中所提到的概念、挑战和建议。
Jul, 2022
本文讨论了人工智能在医疗保健等高风险领域中的公平性问题,强调了技术与临床角度之间的不协调性,提出了跨学科合作的必要性,并为解决与人工智能公平性相关的临床问题提供了可能的解决方案。
Apr, 2023
人工智能(AI)在各领域广泛应用,引发对公平性的关注。然而,现行的讨论往往强调基于结果的度量,而对亚组内不同影响缺乏细致考虑。偏见缓解技术不仅影响敏感组之间实例的排名,而且通常也显著影响这些组内实例的排名。这种变化很难解释,并引发对干预有效性的担忧。然而,当前通常使用的准确性公平评估框架很少注意到这些效应。本文挑战用于评估偏见缓解技术的现行指标,认为它们不考虑组内变化,导致预测标签无法反映真实场景。我们提出一个范式转变:首先,我们应该专注于为每个亚组生成最准确的排名。然后,根据这些排名选取个体以满足公平标准和实际考量。
Jan, 2024
人工智能(AI)模型在我们的生活的各个方面得到广泛应用,如医疗、教育和就业。鉴于它们在许多敏感环境中使用并做出可能改变生活的决策,潜在的偏见结果成为一个紧迫问题。开发人员应确保这些模型不表现出任何意外的歧视做法,如对特定性别、种族或残疾人的偏袒。随着AI系统的广泛应用,研究人员和从业者对不公平的模型意识越来越强,并致力于减少其中的偏见。本文综述了研究人员在确保AI系统公平性方面所做的不同努力。我们探讨了当前文献中关于公平性的不同定义,通过对不同类型的偏见进行分类,研究了不同应用领域中存在的出现偏见的AI案例。我们对研究人员在减少AI模型偏见方面采用的方法和技术进行了详细研究。此外,我们还深入探讨了偏见模型对用户体验的影响以及在开发和部署此类模型时需要考虑的伦理问题。我们希望通过分享这份全面的综述,帮助研究人员和从业者理解AI系统中公平性和偏见的复杂问题。通过此综述,我们旨在促进公平和负责任AI领域的进一步讨论。
Mar, 2024
医学领域中人工智能(AI)的道德整合需要解决公平性这个高度依赖上下文的概念。本文通过详细的证据缺口分析,系统地指出了医疗数据和AI公平解决方案中存在的一些缺陷。我们强调了在许多医学领域中AI公平研究的稀缺性。此外,我们分析还凸显了对群体公平的重要依赖,旨在从宏观医疗系统的角度确保人口统计群体之间的平等;相比之下,对于更精细化程度上的个人公平性常常被忽视了。为了填补这些间隙,我们的综述为医疗和AI研究社区提出了可操作的策略。除了在医疗中应用现有的AI公平方法,我们进一步强调了将医疗专业人员纳入其中,以完善AI公平概念和方法,以确保AI在医疗领域中具有上下文相关性和道德健全性。
May, 2024