AI 公平性与效用的联合优化:以人为本的方法
本文总结和评估了追求人工智能系统公正性的各种方法和技术,提出了定义、衡量和预防人工智能偏见的实用指南,并针对评估人工智能系统偏见的一些简单但常见方法提出了更为复杂和有效的替代方案。此外它还提供了一个共同的语言来解决领域内普遍存在的争议和混乱。它描述了涉及人工智能公正性的各种权衡,并提供了实用建议来平衡这些权衡。本文提供了关于人工智能从业者、组织领导、政策制定者的讨论和指南,以及为技术观众提供更多相关资料的链接。通过举例清晰阐述了本文中所提到的概念、挑战和建议。
Jul, 2022
本文概述了在使用人工智能算法时如何识别、测量和提高算法公正性的主要概念,并讨论了算法偏见和不公正的原因、公正的常见定义和度量以及预处理、处理中和后处理机制,最终回顾了几个新兴的算法公正性研究子领域。
Jan, 2020
现有的算法公平性方法旨在确保人类决策者与算法决策完全一致,然而,在人工智能与人类协作中,与算法的完全一致很少实现或者甚至是不可取的。我们提出了 “合规性鲁棒公平算法推荐” 概念,它能够保证在决策中改善公平性,无论人类的合规模式如何。然而,我们发现设计同时具备独立公平性、合规性鲁棒公平性和比人类决策更准确的算法推荐可能是不可行的,因此,如果我们的目标是改善人工智能与人类协作的公平性和准确性,可能不应强制执行传统的公平性约束。
Oct, 2023
人工智能(AI)模型在我们的生活的各个方面得到广泛应用,如医疗、教育和就业。鉴于它们在许多敏感环境中使用并做出可能改变生活的决策,潜在的偏见结果成为一个紧迫问题。开发人员应确保这些模型不表现出任何意外的歧视做法,如对特定性别、种族或残疾人的偏袒。随着 AI 系统的广泛应用,研究人员和从业者对不公平的模型意识越来越强,并致力于减少其中的偏见。本文综述了研究人员在确保 AI 系统公平性方面所做的不同努力。我们探讨了当前文献中关于公平性的不同定义,通过对不同类型的偏见进行分类,研究了不同应用领域中存在的出现偏见的 AI 案例。我们对研究人员在减少 AI 模型偏见方面采用的方法和技术进行了详细研究。此外,我们还深入探讨了偏见模型对用户体验的影响以及在开发和部署此类模型时需要考虑的伦理问题。我们希望通过分享这份全面的综述,帮助研究人员和从业者理解 AI 系统中公平性和偏见的复杂问题。通过此综述,我们旨在促进公平和负责任 AI 领域的进一步讨论。
Mar, 2024
社会决策中公平性是最值得追求的原则之一,它在过去几十年中得到了广泛研究,近年来也得到了多智能体系统社区的重视。然而,这些研究往往不能充分捕捉到现实世界问题的复杂性和人们对公平性的认知。我们认为,社会规划者(设计者)不仅应该认为公平解是可取的,而且应该以人类和社会认知为基础,考虑基于人类判断的感知结果,并且可以进行验证。为了实现这一目标,需要从计算和人工智能到行为经济学和人机交互等广泛跨学科的方法。在这样做的过程中,我们指出了当前公平分配文献的不足和长期挑战,描述了近期在解决这些问题方面的努力,并更重要地强调了一系列开放的研究方向。
Dec, 2023
隐私和公正是负责任的人工智能和可信机器学习的两个关键支柱。本文对隐私和公正在机器学习中的影响进行了综述,包括有监督学习、无监督学习、半监督学习和强化学习,并提出了同时实现这两个目标时所面临的研究挑战,特别关注大规模语言模型。
Jul, 2023
我们探索了一种人机交互界面的设计,使得普通用户可以识别潜在的公平问题并在贷款决策的背景下解决它们,为评判和解决人工智能的公平性做出贡献。
Apr, 2022
本研究提供了一种设计空间方法,通过人机交互设计支持数据科学家和领域专家对 AI 公平性进行调查,我们使用贷款申请作为实例,通过一系列研讨会,我们将贷款专员和数据科学家的需求实现到了 FairHIL 用户接口中。该研究通过 think-aloud 用户研究验证了 FairHIL 的可靠性,并为调查 AI 模型公平性提供更好的设计。
Jun, 2022
通过对 101 轮独裁者游戏的研究,我得出结论:人工智能在游戏中表现出强烈的公平意识,这取决于它认为与之互动的人是否值得信任;在指定为受托人时,框架对人工智能给予接收者的数量有很大影响;而且也有证据表明人工智能可能像人类一样对不平等具有厌恶感。
Feb, 2024