导航公正:AI/ML 发展中从业人员的理解、挑战与策略
本文通过 35 个半结构化面谈和 267 个机器学习从业者的匿名调查,系统研究了商业产品团队开发公平的机器学习系统所面临的挑战和需求,发现了业界从业者面临的挑战及公平机器学习的研究文献中提出的解决方案之间的一些不协调之处,并提出了未来机器学习与人机交互研究的方向,以更好地满足产业从业者的需求。
Dec, 2018
本研究探讨了机器学习开发者对于公平性的感知和评估,通过一个焦点小组讨论的方式,发现开发者通常关注机器学习应用程序的整体设计和开发过程中的各种因素,包括业务需求、数据收集、预处理、处理和后处理等,并得出结论认为,组织公正理论的程序性方面可以解释开发者对公平性的感知。本研究的发现可以进一步用于协助开发团队在机器学习应用程序的开发周期中集成公平性,同时也可以激励机器学习开发者和组织开发评估机器学习应用程序公平性的最佳实践。
Apr, 2023
AI Fairness 领域存在多种理解和多样化的公平概念,对此,本文提出了一种基于上下文和以社会为中心的方法来帮助项目团队更好地识别、减轻和处理人工智能项目流程中出现的不公平偏见和歧视,并讨论了如何通过自我评估、风险管理和公平准则的文档化来实现 AI 公平原则。
Feb, 2024
本文通过深入实证探究了行业从业者如何学习、使用公平性工具集,提出了公平性工具集需要更好地满足从业者的需求并支持其更有效和负责任地使用工具集的几个机会和启示。
May, 2022
本研究通过采用匿名调查和专家面谈的方式研究了如何在教育人工智能应用程序的开发过程中考虑公平性的挑战和需求,以及对数据挖掘和机器学习的推动作用,为实现更公平的教育人工智能应用程序提出了具体方向。
Jun, 2022
本文阐述了机器学习中为何无法完全消除偏见,并提出一种端到端的方法论,将道德原则转化为机器学习开发实践,并支持团队逐步处理机器学习系统中的偏见,以及指南如何向用户解释这种不完美的权衡。
Mar, 2023
人工智能(AI)模型在我们的生活的各个方面得到广泛应用,如医疗、教育和就业。鉴于它们在许多敏感环境中使用并做出可能改变生活的决策,潜在的偏见结果成为一个紧迫问题。开发人员应确保这些模型不表现出任何意外的歧视做法,如对特定性别、种族或残疾人的偏袒。随着 AI 系统的广泛应用,研究人员和从业者对不公平的模型意识越来越强,并致力于减少其中的偏见。本文综述了研究人员在确保 AI 系统公平性方面所做的不同努力。我们探讨了当前文献中关于公平性的不同定义,通过对不同类型的偏见进行分类,研究了不同应用领域中存在的出现偏见的 AI 案例。我们对研究人员在减少 AI 模型偏见方面采用的方法和技术进行了详细研究。此外,我们还深入探讨了偏见模型对用户体验的影响以及在开发和部署此类模型时需要考虑的伦理问题。我们希望通过分享这份全面的综述,帮助研究人员和从业者理解 AI 系统中公平性和偏见的复杂问题。通过此综述,我们旨在促进公平和负责任 AI 领域的进一步讨论。
Mar, 2024
本研究旨在更好地了解业界从业人员在跨职能协同合作 AI 公平方面的现状和策略,以识别支持更有效协作的机会,并关注业界从业人员在此过程中承担的隐性劳动。
Jun, 2023
本文总结和评估了追求人工智能系统公正性的各种方法和技术,提出了定义、衡量和预防人工智能偏见的实用指南,并针对评估人工智能系统偏见的一些简单但常见方法提出了更为复杂和有效的替代方案。此外它还提供了一个共同的语言来解决领域内普遍存在的争议和混乱。它描述了涉及人工智能公正性的各种权衡,并提供了实用建议来平衡这些权衡。本文提供了关于人工智能从业者、组织领导、政策制定者的讨论和指南,以及为技术观众提供更多相关资料的链接。通过举例清晰阐述了本文中所提到的概念、挑战和建议。
Jul, 2022
调查表明,人工智能领域中存在各种偏见和不公,因此机器学习研究人员定义了公平性的分类,以解决现有 AI 系统中的偏见问题。此外,调查还考察了在 AI 的不同领域和子领域中,现有技术的问题及其应对措施,以期鼓励研究人员在其各自领域中研究此问题。
Aug, 2019