参与并非机器学习的设计修复
本文综述了 AI/ML 管道内的参与方法和做法,在介绍三个案例的同时探讨了参与 AI 的局限性和担忧,讨论了参与活动的主要受益者和参与在设计,开发和部署中的作用。
Sep, 2022
参与型基础模型可以有效地将权力和决策能力赋予边缘化群体,避免现有的权力不平衡以及对弱势社区的不成比例伤害,并通过多层模型在临床照护、金融服务和新闻等领域创造更具意义的参与机会。
May, 2024
本文研究了商业人工智能实验室对参与式人工智能方法的理解和实施所面临的障碍,并提供了有关在此背景下使用参与式方法的挑战的新颖经验研究。
Jun, 2023
通过与 ML 软件从业人员、教育者和学生进行合作设计,本研究发现利益相关者基于其领域和程序知识对数据进行情境化,积极设计数据要求以减少下游危害和数据可靠性问题,并展现了基于角色的合作策略和贡献模式。此外,研究发现,ML 中有意义的利益相关者参与需要结构化支持:连续反复迭代和共同评估的定义流程,共享的情境数据质量标准,以及旨在帮助技术和非技术利益相关者跨越专业边界的信息支架。
Nov, 2023
通过综合技术设计、政治理论和社会科学的文献,以及对 12 位人工智能研究员和从业者的半结构化访谈,本文试图通过将现有理论文献与经验调查和批判相结合,为感兴趣采取参与式方法的人工智能设计和开发的研究人员和从业者提供一个概念框架,以评估参与式人工智能设计的方法。此外,我们通过分析最近发表的研究结果和半结构化访谈的方式,表达了关于目前参与实践状况的实证发现,以进一步提供指导,以更好地协调参与目标和方法,以考虑实际约束。
Oct, 2023
本文介绍社区基础系统动力学 (CBSD) 方法作为一种促进典型被排除利益相关者参与机器学习系统开发中问题构建阶段、促进深入理解问题并缓解偏差的方法。
May, 2020
通过对 Stack Exchange 论坛上的问题进行实证研究,探讨了互动式计算平台在机器学习工作中的使用,及其对机器学习实践和系统开发的影响,这可能导致使机器学习生命周期中的某些方面变得不可见,这些方面对于已部署的机器学习系统的社会影响尤为重要,这也是 AI 伦理学家一直强调的。
Jul, 2023
本文阐述了机器学习中为何无法完全消除偏见,并提出一种端到端的方法论,将道德原则转化为机器学习开发实践,并支持团队逐步处理机器学习系统中的偏见,以及指南如何向用户解释这种不完美的权衡。
Mar, 2023
通过重新配置参与式设计(PD)继续与以价值为中心的愿景互动,并增加对非人工智能替代方案的探索以及使支撑人工智能系统的重要人工劳动显而易见的方式,本文主张通过在民主价值观和流程上着重,质疑和抵制 AI 现实主义,以此抵制人工智能为解决社会和技术问题的不可避免性和自然性的观念,从而为以人类需求和价值为中心的替代未来开放空间,并产生与 AI 现实主义相抗衡的摩擦。
Jun, 2024