设计公平的AI管理组织员工:综述、批评和设计议程
本文介绍了一支团队在大型技术公司的复杂生产系统中应用算法公平方法的挑战以及如何解决处理不同利益相关方之间的利益冲突的问题,同时还介绍了一种实用的方法来衡量机器学习系统和人类标记员在各种相关群体间进行权衡的情况。希望我们整合公平工具和方法到大规模复杂生产系统的经验对其他从业者有所助益,同时是研究人员更好地满足从业者需求的更深入的探索。
Mar, 2021
本文评估并比较了来自哲学、女性主义研究、批判性种族和民族研究、法律研究、人类学和科学技术研究等非计算学科的现有批评,旨在提供 ML 公正技术干预的跨学科理解,以此产生社会上最边缘化群体的公正结果,最后讨论了基于这些批评的未来 ML 公正研究方向。
May, 2022
本文总结和评估了追求人工智能系统公正性的各种方法和技术,提出了定义、衡量和预防人工智能偏见的实用指南,并针对评估人工智能系统偏见的一些简单但常见方法提出了更为复杂和有效的替代方案。此外它还提供了一个共同的语言来解决领域内普遍存在的争议和混乱。它描述了涉及人工智能公正性的各种权衡,并提供了实用建议来平衡这些权衡。本文提供了关于人工智能从业者、组织领导、政策制定者的讨论和指南,以及为技术观众提供更多相关资料的链接。通过举例清晰阐述了本文中所提到的概念、挑战和建议。
Jul, 2022
本文提出了ACROCPoLis框架,着眼于代表分配过程的公平方面,为不同情况和程序公平评估相关因素提供共享词汇,并使它们的相互关系明显,以比较类似情况,突出不同情况的差异,并捕捉不同利益相关者对相同情况的不同解释。
Apr, 2023
本研究旨在更好地了解业界从业人员在跨职能协同合作AI公平方面的现状和策略,以识别支持更有效协作的机会,并关注业界从业人员在此过程中承担的隐性劳动。
Jun, 2023
社会决策中公平性是最值得追求的原则之一,它在过去几十年中得到了广泛研究,近年来也得到了多智能体系统社区的重视。然而,这些研究往往不能充分捕捉到现实世界问题的复杂性和人们对公平性的认知。我们认为,社会规划者(设计者)不仅应该认为公平解是可取的,而且应该以人类和社会认知为基础,考虑基于人类判断的感知结果,并且可以进行验证。为了实现这一目标,需要从计算和人工智能到行为经济学和人机交互等广泛跨学科的方法。在这样做的过程中,我们指出了当前公平分配文献的不足和长期挑战,描述了近期在解决这些问题方面的努力,并更重要地强调了一系列开放的研究方向。
Dec, 2023
AI Fairness领域存在多种理解和多样化的公平概念,对此,本文提出了一种基于上下文和以社会为中心的方法来帮助项目团队更好地识别、减轻和处理人工智能项目流程中出现的不公平偏见和歧视,并讨论了如何通过自我评估、风险管理和公平准则的文档化来实现AI公平原则。
Feb, 2024
人工智能(AI)模型在我们的生活的各个方面得到广泛应用,如医疗、教育和就业。鉴于它们在许多敏感环境中使用并做出可能改变生活的决策,潜在的偏见结果成为一个紧迫问题。开发人员应确保这些模型不表现出任何意外的歧视做法,如对特定性别、种族或残疾人的偏袒。随着AI系统的广泛应用,研究人员和从业者对不公平的模型意识越来越强,并致力于减少其中的偏见。本文综述了研究人员在确保AI系统公平性方面所做的不同努力。我们探讨了当前文献中关于公平性的不同定义,通过对不同类型的偏见进行分类,研究了不同应用领域中存在的出现偏见的AI案例。我们对研究人员在减少AI模型偏见方面采用的方法和技术进行了详细研究。此外,我们还深入探讨了偏见模型对用户体验的影响以及在开发和部署此类模型时需要考虑的伦理问题。我们希望通过分享这份全面的综述,帮助研究人员和从业者理解AI系统中公平性和偏见的复杂问题。通过此综述,我们旨在促进公平和负责任AI领域的进一步讨论。
Mar, 2024
AI算法在公共部门中的使用,例如分配社会福利或预测欺诈行为,往往涉及到多个公共和私人利益相关者。研究人员通过对公共部门算法系统工作人员的访谈,调查了与AI公平相关决策相关的沟通过程,并通过定性编码分析识别了潜藏在公平相关的人工决策中的沟通问题。研究结果表明,沟通模式和组织问题对公平相关决策产生了重要影响。
Mar, 2024
通过EARN公平性框架,能够帮助相关利益相关者表达个人偏好并达成共识,为在高风险情境下实施以人为中心的AI公平性提供实际指导。
Jul, 2024