广义形式博弈中的责任
为了在涉及 AI-enabled 系统的复杂情况中理解责任应当在何处,首先我们需要有一个足够清晰和详细的跨学科的责任词汇;本文通过以 'Actor A 对 Occurrence O 负责 ' 的三部分表述,识别了 A、负责和 O 的有效组合,形成了四种责任的含义,并通过两个案例进行了阐述,最终形成了 81 个责任词组。这些词组为不同学科的人们提供了明确和具体的方式,解释在寻求责任的复杂事件中,不同的行动者对不同的事件负有责任的不同方式,从而允许精确和有针对性的跨学科规范性讨论。
Aug, 2023
伴随着越来越多具有重大伦理维度的决策外包到 AI 系统中,有必要找到一个可应用于 AI 系统的道德责任定义。本研究基于因果模型的框架提出了一种正式的道德责任定义,包括因果条件和认识条件。并将该定义与 BvH 和 HK 的现有方法进行比较,进而将其推广为一种责任度量。
Oct, 2023
预测责任是确定个体行为是否可能导致其对特定结果负责的过程,可用于多智能体规划环境中让智能体在考虑计划时预测责任。该论文定义了主动、被动和贡献性责任的归因,考虑了智能体的变体,并使用此定义了责任预测的概念。该模型证明了我们的预期责任概念可用于协调规划环境中的智能体,并给出了复杂性结果,探讨了与经典规划的等效性。我们还提出了使用 PDDL 求解器解决一些归因和预测问题的大纲。
Jul, 2023
本文介绍一种新的框架 —— 结构性因果博弈,它将因果层级扩展到博弈论领域,以及介绍了一种基于因果游戏的 Python 库。该框架支持机械化博弈,定义了因果查询并与其他因果或博弈理论模型进行了比较。
Jan, 2023
本文提出新的因果关系定义,以考虑 A 对 B 的责任程度与 A 的认知状态相关联的程度,并定义了一种责任程度的概念,用于衡量 A 对 B 的责任程度,从而得出预期的 A 对 B 的责任程度。
Dec, 2003
AI - 基于安全关键系统(AI-SCS)在现实世界中的部署越来越多。降低风险是开发和运营中的首要任务。本文考虑了责任的不同方面(角色、道德、法律和因果关系),以及它们在 AI-SCS 安全背景下的应用。我们使用一个核心概念(演员(A)对事件(O)负责)来创建角色责任模型,从而产生了一种捕捉责任关系并澄清以前已知的责任问题的实用方法。通过对事故案例和基于 AI 的糖尿病并发症预测器的安全性分析,我们的主要目标是在安全性方面减少对操作员或开发人员的不公平或不成比例的责备。我们提出了进一步研究的讨论和方向。
Dec, 2023