ACROCPoLis:公平理解的描述性框架
本文评估并比较了来自哲学、女性主义研究、批判性种族和民族研究、法律研究、人类学和科学技术研究等非计算学科的现有批评,旨在提供 ML 公正技术干预的跨学科理解,以此产生社会上最边缘化群体的公正结果,最后讨论了基于这些批评的未来 ML 公正研究方向。
May, 2022
本研究探讨交叉性是如何应用于AI Fairness领域,并指出研究人员在这个应用方面所存在的概念和实践差距,并提出了关于如何改进这种状况的建议。
Mar, 2023
社会决策中公平性是最值得追求的原则之一,它在过去几十年中得到了广泛研究,近年来也得到了多智能体系统社区的重视。然而,这些研究往往不能充分捕捉到现实世界问题的复杂性和人们对公平性的认知。我们认为,社会规划者(设计者)不仅应该认为公平解是可取的,而且应该以人类和社会认知为基础,考虑基于人类判断的感知结果,并且可以进行验证。为了实现这一目标,需要从计算和人工智能到行为经济学和人机交互等广泛跨学科的方法。在这样做的过程中,我们指出了当前公平分配文献的不足和长期挑战,描述了近期在解决这些问题方面的努力,并更重要地强调了一系列开放的研究方向。
Dec, 2023
算法公平性和可解释性是实现负责任人工智能的基本要素。本文关注它们之间的相互关系,即最近受到越来越多关注的研究领域。我们首先提出了两种综合分类法,分别代表了公平性和解释两个互补的研究领域。然后,我们将用于公平性的解释分为三种类型:(a)用于增强公平指标的解释,(b)用于帮助我们理解(不公平)原因的解释,以及(c)用于辅助我们设计缓解不公平性方法的解释。最后,基于我们的公平性和解释分类法,我们提供了未曾涉足的文献路径,揭示了可以作为未来研究宝贵见解的空白领域。
Feb, 2024
AI Fairness领域存在多种理解和多样化的公平概念,对此,本文提出了一种基于上下文和以社会为中心的方法来帮助项目团队更好地识别、减轻和处理人工智能项目流程中出现的不公平偏见和歧视,并讨论了如何通过自我评估、风险管理和公平准则的文档化来实现AI公平原则。
Feb, 2024
人工智能(AI)模型在我们的生活的各个方面得到广泛应用,如医疗、教育和就业。鉴于它们在许多敏感环境中使用并做出可能改变生活的决策,潜在的偏见结果成为一个紧迫问题。开发人员应确保这些模型不表现出任何意外的歧视做法,如对特定性别、种族或残疾人的偏袒。随着AI系统的广泛应用,研究人员和从业者对不公平的模型意识越来越强,并致力于减少其中的偏见。本文综述了研究人员在确保AI系统公平性方面所做的不同努力。我们探讨了当前文献中关于公平性的不同定义,通过对不同类型的偏见进行分类,研究了不同应用领域中存在的出现偏见的AI案例。我们对研究人员在减少AI模型偏见方面采用的方法和技术进行了详细研究。此外,我们还深入探讨了偏见模型对用户体验的影响以及在开发和部署此类模型时需要考虑的伦理问题。我们希望通过分享这份全面的综述,帮助研究人员和从业者理解AI系统中公平性和偏见的复杂问题。通过此综述,我们旨在促进公平和负责任AI领域的进一步讨论。
Mar, 2024
AI算法在公共部门中的使用,例如分配社会福利或预测欺诈行为,往往涉及到多个公共和私人利益相关者。研究人员通过对公共部门算法系统工作人员的访谈,调查了与AI公平相关决策相关的沟通过程,并通过定性编码分析识别了潜藏在公平相关的人工决策中的沟通问题。研究结果表明,沟通模式和组织问题对公平相关决策产生了重要影响。
Mar, 2024
机器学习和深度学习的最新进展使得算法公平成为一个关注焦点,引发对影响某些个体或群体的歧视性决策的担忧。本调研综述基于“容忍度”提出了一个新的分类系统,揭示了算法决策中公平的微妙性。通过分析多个行业,我们的系统性综述揭示了算法决策与社会公平之间的关键见解。通过综合这些见解,我们勾勒出一系列新兴挑战,并提出未来研究和政策制定的战略方向,以推动该领域朝着更加公平的算法系统发展。
Apr, 2024
通过EARN公平性框架,能够帮助相关利益相关者表达个人偏好并达成共识,为在高风险情境下实施以人为中心的AI公平性提供实际指导。
Jul, 2024