Inioluwa Deborah Raji, I. Elizabeth Kumar, Aaron Horowitz, Andrew D. Selbst
TL;DRAI 系统的功能性是一个重要的挑战,在保护受影响的社区免受算法伤害方面发挥着必要的第一步作用。本文通过对一组案例进行分析,提出一套已知 AI 功能性问题的分类法,并指出通常被忽视的政策和组织反应,一旦功能性被集中关注将更易获取。
Abstract
Deployed AI systems often do not work. They can be constructed haphazardly,
deployed indiscriminately, and promoted deceptively. However, despite this
reality, scholars, the press, and policymakers pay too little attention to
functionality. This leads to technical and policy solutions
AI 安全的概念在社会中日益普及,AI 社区越来越关注 AI Safety 的概念,即防止在 AI 部署过程中系统行为意外偏离设计意图而导致的故障。通过分析真实案例,我们展示了当前的词汇虽然能够涵盖 AI 部署中遇到的一系列问题,但仍需要一个扩展的社会技术框架来更好地理解 AI 系统和实施的安全机制在现实生活中的成功与失败。
通过基于塞恩和纳斯鲍姆的能力途径的框架,我们形成了一个道德概念和权益的网络,目的是让 AI 系统对利益相关者产生有意义的益处或帮助,从而提升他们推进生活计划和福祉的能力,同时维护他们的基本权利。我们表征了 AI 系统和其运作所影响的人之间道德可容许互动的两个必要条件,以及实现有意义益处理想的两个充分条件。同时,我们将这一理想与几种突出的故障模式进行对比,即构成不合理家长式主义、强制、欺骗、剥削和支配的社会互动形式。AI 在高风险领域中的事件增加凸显了这些问题的重要性,也迫使我们从一开始就采取伦理导向的方法来应对 AI 系统。