公正的意义是什么?残障、人工智能与正义复杂性
本文探讨了人工智能及机器学习方法的广泛运用如何影响残障人士在社会中获得公正待遇的问题,对比年龄、性别或种族等受保护的特征,阐述了公正对于残障人士来说有着特殊的意义和挑战,提出在人工智能应用中为残障人士建立公平机制的建议。
Nov, 2018
使用 AI 技术改善残障人士(PWD)的生活具有巨大潜力,但是如果没有考虑到公平性,这些技术可能会导致针对残障人士的不良影响。该研究通过风险评估和未来的研究路线图来探讨 AI 与残障人士之间的相互作用,以建立更公平、更包容性的算法。
Jul, 2019
医学领域中人工智能(AI)的道德整合需要解决公平性这个高度依赖上下文的概念。本文通过详细的证据缺口分析,系统地指出了医疗数据和 AI 公平解决方案中存在的一些缺陷。我们强调了在许多医学领域中 AI 公平研究的稀缺性。此外,我们分析还凸显了对群体公平的重要依赖,旨在从宏观医疗系统的角度确保人口统计群体之间的平等;相比之下,对于更精细化程度上的个人公平性常常被忽视了。为了填补这些间隙,我们的综述为医疗和 AI 研究社区提出了可操作的策略。除了在医疗中应用现有的 AI 公平方法,我们进一步强调了将医疗专业人员纳入其中,以完善 AI 公平概念和方法,以确保 AI 在医疗领域中具有上下文相关性和道德健全性。
May, 2024
AI Fairness 领域存在多种理解和多样化的公平概念,对此,本文提出了一种基于上下文和以社会为中心的方法来帮助项目团队更好地识别、减轻和处理人工智能项目流程中出现的不公平偏见和歧视,并讨论了如何通过自我评估、风险管理和公平准则的文档化来实现 AI 公平原则。
Feb, 2024
本研究提出了机器学习和人工智能系统中的公平性定义,并受到交叉性别、种族、性取向、阶级和残疾等影响因素的启发,通过保护属性子集合理分配资源,提供合理保护算法,同时在人口普查数据和 COMPAS 犯罪再犯数据集上进行案例研究。
Jul, 2018
本文提倡将多样性作为核心优先事项,以实现算法公平所追求的不歧视和公正目标,并为计算机科学的从业人员提供具体的多样性措施建议,以增加多样性,并提高算法公平的实践水平。
Feb, 2020
本文评估并比较了来自哲学、女性主义研究、批判性种族和民族研究、法律研究、人类学和科学技术研究等非计算学科的现有批评,旨在提供 ML 公正技术干预的跨学科理解,以此产生社会上最边缘化群体的公正结果,最后讨论了基于这些批评的未来 ML 公正研究方向。
May, 2022
本文讨论了人工智能在医疗保健等高风险领域中的公平性问题,强调了技术与临床角度之间的不协调性,提出了跨学科合作的必要性,并为解决与人工智能公平性相关的临床问题提供了可能的解决方案。
Apr, 2023
正义是公平的概念。在没有统一接受的公平概念的情况下,如何为特定应用程序选择最适当的公平度量标准是实现可持续公正的关键问题。为了提供更多实用指导,作者提出了 “公平度量罗盘”,这是一个工具,可以形式化选择过程,并简化选择特定系统的最适当的公平定义。同时还可以解释和证明所采取公平措施的理由。
Feb, 2021