克服 AI 集成系统开发和部署中的想象力失败
本文通过对 2020 年 NeurIPS 会议发表的关于算法系统负面影响的声明进行定性主题分析,归纳提取出如何表达影响、影响领域和如何减轻负面影响等主题,旨在对 NeurIPS 会议更好地考虑潜在影响提出建议。
May, 2021
通过基于塞恩和纳斯鲍姆的能力途径的框架,我们形成了一个道德概念和权益的网络,目的是让 AI 系统对利益相关者产生有意义的益处或帮助,从而提升他们推进生活计划和福祉的能力,同时维护他们的基本权利。我们表征了 AI 系统和其运作所影响的人之间道德可容许互动的两个必要条件,以及实现有意义益处理想的两个充分条件。同时,我们将这一理想与几种突出的故障模式进行对比,即构成不合理家长式主义、强制、欺骗、剥削和支配的社会互动形式。AI 在高风险领域中的事件增加凸显了这些问题的重要性,也迫使我们从一开始就采取伦理导向的方法来应对 AI 系统。
Aug, 2023
讨论机器学习与人工智能技术对社会潜在影响的一个问题:机器学习系统中的意外事故风险和如何抵御。我们提出了五个与事故风险相关的实际研究问题,涉及到错误的目标函数、过于昂贵的监督、安全探索和分布变化等方面。最后,思考了如何更具生产力地思考人工智能前瞻性应用的安全问题。
Jun, 2016
AI 系统的功能性是一个重要的挑战,在保护受影响的社区免受算法伤害方面发挥着必要的第一步作用。本文通过对一组案例进行分析,提出一套已知 AI 功能性问题的分类法,并指出通常被忽视的政策和组织反应,一旦功能性被集中关注将更易获取。
Jun, 2022
人工智能创新主要关注 “what” 和 “how” 问题,忽视可能的危害与社会背景,导致了潜在的社会技术问题,因此我们需要计算机科学和社会学科之间更紧密的联系。
Dec, 2020
人工智能(AI)系统将越来越常被用于造成伤害,为了防止对 AI 的一些错误使用,本文提出了一种减少 AI 误用的干预分类法,重点在于对于误用所需的特定步骤(误用链)进行干预以及确定是否需要此干预。
Mar, 2023
在 AI-as-a-Service(AIaaS)背景下,我们对社会伤害的研究现状进行批判性总结,重点关注其影响,并提出开放性研究问题,以定义未来的研究方向。
Mar, 2024
AI 安全的概念在社会中日益普及,AI 社区越来越关注 AI Safety 的概念,即防止在 AI 部署过程中系统行为意外偏离设计意图而导致的故障。通过分析真实案例,我们展示了当前的词汇虽然能够涵盖 AI 部署中遇到的一系列问题,但仍需要一个扩展的社会技术框架来更好地理解 AI 系统和实施的安全机制在现实生活中的成功与失败。
Dec, 2023