领英上的AI公平问题的解析和运用
本文总结和评估了追求人工智能系统公正性的各种方法和技术,提出了定义、衡量和预防人工智能偏见的实用指南,并针对评估人工智能系统偏见的一些简单但常见方法提出了更为复杂和有效的替代方案。此外它还提供了一个共同的语言来解决领域内普遍存在的争议和混乱。它描述了涉及人工智能公正性的各种权衡,并提供了实用建议来平衡这些权衡。本文提供了关于人工智能从业者、组织领导、政策制定者的讨论和指南,以及为技术观众提供更多相关资料的链接。通过举例清晰阐述了本文中所提到的概念、挑战和建议。
Jul, 2022
本文提出了AI as a Service所存在的问题:由于公平性是具有上下文敏感性的,基于用户自主程度的AI服务分类可以导致偏见或在最终用户应用中被认为是有害的。
Feb, 2023
本研究旨在更好地了解业界从业人员在跨职能协同合作AI公平方面的现状和策略,以识别支持更有效协作的机会,并关注业界从业人员在此过程中承担的隐性劳动。
Jun, 2023
本文利用因果推断和解释性机器学习的最新进展,提出了一种算法无关的框架(MIIF),用于测量、解释和改进算法决策的公平性。我们使用随机实验来测量算法偏差,从而能够同时测量不同对待、不同影响和经济价值。此外,利用现代解释性技术,我们开发了一个可解释的机器学习模型,准确解释和提炼黑盒算法的信念。总的来说,这些技术为研究算法公平性创造了一个简单而强大的工具集,特别适用于理解实际应用中公平性成本的电子商务和目标广告等领域,其中行业的 A/B 测试已经非常丰富。
Sep, 2023
AI Fairness领域存在多种理解和多样化的公平概念,对此,本文提出了一种基于上下文和以社会为中心的方法来帮助项目团队更好地识别、减轻和处理人工智能项目流程中出现的不公平偏见和歧视,并讨论了如何通过自我评估、风险管理和公平准则的文档化来实现AI公平原则。
Feb, 2024
AI实践者对AI/ML的公平性的理解、挑战、后果和策略以及进一步研究领域的识别,为确保AI/ML的公平性提供了宝贵的真实世界视角。
Mar, 2024
人工智能系统的广泛应用越来越突显算法公正性问题,特别是在高风险情景下。因此,对如何改善人工智能系统的公正性以及可采取的措施进行关键考虑已迫在眉睫。许多研究人员和政策制定者认为可解释的人工智能是提高人工智能系统公正性的一种有希望的方法。然而,可解释的人工智能方法和公正性概念各不相同,它们表达不同的期望,而且可解释的人工智能与公正性之间的确切联系仍然模糊不清。此外,在人工智能系统的整个生命周期中,可能适用不同的措施来增加算法的公正性。然而,目前还没有一种连贯的方法将公正性期望与人工智能生命周期相对应。本文旨在填补这两个空白:我们概括得出了八个公正性期望,将它们与人工智能生命周期相联系,并讨论可解释的人工智能如何帮助解决每个期望。我们希望为实际应用提供方向,并激励特别关注这些公正性期望的可解释的人工智能研究。
Apr, 2024
创建公平的AI系统是一个复杂的问题,涉及评估上下文相关的偏见问题。本文提出了一个数学框架,将偏见的文献度量指标化为构建模块,从而促进涵盖广泛公平问题的新组合,我们还提供了一个名为FairBench的Python库,用于有系统且可扩展地探索潜在的偏见问题。
May, 2024
通过EARN公平性框架,能够帮助相关利益相关者表达个人偏好并达成共识,为在高风险情境下实施以人为中心的AI公平性提供实际指导。
Jul, 2024