EARN公平:在利益相关者之间解释、询问、评审和协商人工智能公平度量
介绍了一种新的开源Python工具包- AI Fairness 360 (AIF360),用于支持决策性应用程序的算法公平性,该工具包包括公平度量标准、算法对数据集和模型执行偏差检测和修复以及参考指南和教程。
Oct, 2018
正义是公平的概念。在没有统一接受的公平概念的情况下,如何为特定应用程序选择最适当的公平度量标准是实现可持续公正的关键问题。为了提供更多实用指导,作者提出了“公平度量罗盘”,这是一个工具,可以形式化选择过程,并简化选择特定系统的最适当的公平定义。同时还可以解释和证明所采取公平措施的理由。
Feb, 2021
本文提出了一种新的公平得分和标准操作程序,用于发放公平认证,以确保人工智能系统是公平的,避免偏见、提高可信度。发放公平认证在商业部署中具有操作框架和促进公平概念的优点。通过多个数据集迭代培训模型并比较受保护属性中的比较偏见,验证了提出的框架的正确性。
Jan, 2022
本文总结和评估了追求人工智能系统公正性的各种方法和技术,提出了定义、衡量和预防人工智能偏见的实用指南,并针对评估人工智能系统偏见的一些简单但常见方法提出了更为复杂和有效的替代方案。此外它还提供了一个共同的语言来解决领域内普遍存在的争议和混乱。它描述了涉及人工智能公正性的各种权衡,并提供了实用建议来平衡这些权衡。本文提供了关于人工智能从业者、组织领导、政策制定者的讨论和指南,以及为技术观众提供更多相关资料的链接。通过举例清晰阐述了本文中所提到的概念、挑战和建议。
Jul, 2022
本文旨在通过实现一个两步训练过程来识别和减轻个人不公平, 并利用最近在此领域发表的一些技术,特别是在信贷审批用例中适用的技术。我们还调查了实现个人公平性的技术在实现团体公平性方面的有效程度以及提出了第二度量标准来确定模型如何公平地处理类似的个体,最后呈现了一些与个人不公平减轻技术相关的实验结果。
Nov, 2022
现有的算法公平性方法旨在确保人类决策者与算法决策完全一致,然而,在人工智能与人类协作中,与算法的完全一致很少实现或者甚至是不可取的。我们提出了“合规性鲁棒公平算法推荐”概念,它能够保证在决策中改善公平性,无论人类的合规模式如何。然而,我们发现设计同时具备独立公平性、合规性鲁棒公平性和比人类决策更准确的算法推荐可能是不可行的,因此,如果我们的目标是改善人工智能与人类协作的公平性和准确性,可能不应强制执行传统的公平性约束。
Oct, 2023
人工智能的公平性在高风险决策中越来越引起关注,让利益相关者,尤其是普通用户,参与公平的人工智能开发具有潜力但往往被忽视。最近的努力探索了让普通用户提供与公平性相关的反馈的方法,但对如何将用户的反馈整合到人工智能模型中以及这样做的影响尚不了解。为了填补这一差距,我们从58个普通用户收集了关于一个在Home Credit数据集上训练的XGBoost模型公平性的反馈,并进行了离线实验,以研究重新训练模型对准确性、个体和团体公平性的影响。我们的工作为在XGBoost中整合用户公平反馈提供了基准结果,并提供了一个数据集和代码框架,以推动参与利益相关者研究人工智能公平性的起步工作。我们的讨论突出了在人工智能公平性中使用用户反馈面临的挑战,并指出了交互式机器学习的未来应用领域的方向。
Dec, 2023
AI Fairness领域存在多种理解和多样化的公平概念,对此,本文提出了一种基于上下文和以社会为中心的方法来帮助项目团队更好地识别、减轻和处理人工智能项目流程中出现的不公平偏见和歧视,并讨论了如何通过自我评估、风险管理和公平准则的文档化来实现AI公平原则。
Feb, 2024
人工智能(AI)模型在我们的生活的各个方面得到广泛应用,如医疗、教育和就业。鉴于它们在许多敏感环境中使用并做出可能改变生活的决策,潜在的偏见结果成为一个紧迫问题。开发人员应确保这些模型不表现出任何意外的歧视做法,如对特定性别、种族或残疾人的偏袒。随着AI系统的广泛应用,研究人员和从业者对不公平的模型意识越来越强,并致力于减少其中的偏见。本文综述了研究人员在确保AI系统公平性方面所做的不同努力。我们探讨了当前文献中关于公平性的不同定义,通过对不同类型的偏见进行分类,研究了不同应用领域中存在的出现偏见的AI案例。我们对研究人员在减少AI模型偏见方面采用的方法和技术进行了详细研究。此外,我们还深入探讨了偏见模型对用户体验的影响以及在开发和部署此类模型时需要考虑的伦理问题。我们希望通过分享这份全面的综述,帮助研究人员和从业者理解AI系统中公平性和偏见的复杂问题。通过此综述,我们旨在促进公平和负责任AI领域的进一步讨论。
Mar, 2024
创建公平的AI系统是一个复杂的问题,涉及评估上下文相关的偏见问题。本文提出了一个数学框架,将偏见的文献度量指标化为构建模块,从而促进涵盖广泛公平问题的新组合,我们还提供了一个名为FairBench的Python库,用于有系统且可扩展地探索潜在的偏见问题。
May, 2024