人工智能系统的道德责任
为了在涉及 AI-enabled 系统的复杂情况中理解责任应当在何处,首先我们需要有一个足够清晰和详细的跨学科的责任词汇;本文通过以 'Actor A 对 Occurrence O 负责 ' 的三部分表述,识别了 A、负责和 O 的有效组合,形成了四种责任的含义,并通过两个案例进行了阐述,最终形成了 81 个责任词组。这些词组为不同学科的人们提供了明确和具体的方式,解释在寻求责任的复杂事件中,不同的行动者对不同的事件负有责任的不同方式,从而允许精确和有针对性的跨学科规范性讨论。
Aug, 2023
人工智能系统的伦理责任是对其可能用于冲突应用的非军事应用进行理论分析和实践方法的介绍,包括通过建立多视角能力测试、集成数字水印和利用监测与报告机制来减轻开发者的道德责任。
Jan, 2024
本论文提出了适用于行动语言的实际因果关系定义,以联系自动化规划和因果关系,并显示了因果关系在伦理推理模拟中的重要性,从而使领域得以处理先前无法解决的情况。
May, 2022
人工智能的应用不仅依赖基础研究和技术发展,更需要关注其公平性、透明度和隐私问题。为了确保 AI 的合理应用,我们需要制定技术、社会、制度和法律方法和工具,提高所有人的参与度和意识,确保 AI 系统与我们社会的原则和价值观一致。
May, 2022
通过强调人工智能的伦理和道德行为在决策方面的关键作用,本文讨论了在构建具有道德性的机器时需要考虑的不同方面,包括最相关的道德范式和挑战。我们还讨论了自上而下和自下而上的设计方法以及情感和知觉在道德中的作用,并提出了融合道德范式的混合方法和分层方法的解决方案,强调治理与政策在人工智能伦理学中的关键性,并确保我们为道德机器设置的任务是可实现的,实现了道德行为并获得了优秀的人工智能。
Oct, 2023
通过基于塞恩和纳斯鲍姆的能力途径的框架,我们形成了一个道德概念和权益的网络,目的是让 AI 系统对利益相关者产生有意义的益处或帮助,从而提升他们推进生活计划和福祉的能力,同时维护他们的基本权利。我们表征了 AI 系统和其运作所影响的人之间道德可容许互动的两个必要条件,以及实现有意义益处理想的两个充分条件。同时,我们将这一理想与几种突出的故障模式进行对比,即构成不合理家长式主义、强制、欺骗、剥削和支配的社会互动形式。AI 在高风险领域中的事件增加凸显了这些问题的重要性,也迫使我们从一开始就采取伦理导向的方法来应对 AI 系统。
Aug, 2023
AI - 基于安全关键系统(AI-SCS)在现实世界中的部署越来越多。降低风险是开发和运营中的首要任务。本文考虑了责任的不同方面(角色、道德、法律和因果关系),以及它们在 AI-SCS 安全背景下的应用。我们使用一个核心概念(演员(A)对事件(O)负责)来创建角色责任模型,从而产生了一种捕捉责任关系并澄清以前已知的责任问题的实用方法。通过对事故案例和基于 AI 的糖尿病并发症预测器的安全性分析,我们的主要目标是在安全性方面减少对操作员或开发人员的不公平或不成比例的责备。我们提出了进一步研究的讨论和方向。
Dec, 2023
人工智能系统可能拥有有争议的人格,这将导致道德困境,如果将这些系统视为具有道德人格,则可能会牺牲真正的人类利益,但不将其视为道德人格可能会对其造成严重的道德伤害,而拥有意识的人工智能系统的情况将更加错综复杂。
Feb, 2023
本文探讨了 AI 和 NLP 领域中的伦理学问题,重点关注了自动化伦理判断的 Delphi 模型,并提出了批判性的观点和如何通过透明度、民主价值观和简单明了的问责机制来推动机器伦理学的发展。
Nov, 2021