预测责任是确定个体行为是否可能导致其对特定结果负责的过程,可用于多智能体规划环境中让智能体在考虑计划时预测责任。该论文定义了主动、被动和贡献性责任的归因,考虑了智能体的变体,并使用此定义了责任预测的概念。该模型证明了我们的预期责任概念可用于协调规划环境中的智能体,并给出了复杂性结果,探讨了与经典规划的等效性。我们还提出了使用 PDDL 求解器解决一些归因和预测问题的大纲。
Jul, 2023
本文旨在在计算预算下提供可行的算法解决归因责任问题。在引入一类特定的结构因果模型的基础上,使用蒙特卡罗树搜索方法高效地近似代理的责任度量,并通过模拟测试来评估算法效果。
Feb, 2023
本文提出新的因果关系定义,以考虑 A 对 B 的责任程度与 A 的认知状态相关联的程度,并定义了一种责任程度的概念,用于衡量 A 对 B 的责任程度,从而得出预期的 A 对 B 的责任程度。
Dec, 2003
该论文提出了一种将反事实责任和看管责任相结合的定义,阐述了责任的概念并研究了两种责任形式之间的鸿沟,表明在考虑到高阶责任时,这两种责任形式可以被规定在每种可能的情况下。
Dec, 2023
团队计划的失败原因和每个代理人的责任和指责程度可以通过使用结构方程和因果关系等定义确定。同时,该研究还在关注的团队计划中证明了新的结果,即可以在多项式时间内计算因果关系和责任 - 指责程度。
May, 2020
为了在涉及 AI-enabled 系统的复杂情况中理解责任应当在何处,首先我们需要有一个足够清晰和详细的跨学科的责任词汇;本文通过以 'Actor A 对 Occurrence O 负责 ' 的三部分表述,识别了 A、负责和 O 的有效组合,形成了四种责任的含义,并通过两个案例进行了阐述,最终形成了 81 个责任词组。这些词组为不同学科的人们提供了明确和具体的方式,解释在寻求责任的复杂事件中,不同的行动者对不同的事件负有责任的不同方式,从而允许精确和有针对性的跨学科规范性讨论。
Aug, 2023
伴随着越来越多具有重大伦理维度的决策外包到 AI 系统中,有必要找到一个可应用于 AI 系统的道德责任定义。本研究基于因果模型的框架提出了一种正式的道德责任定义,包括因果条件和认识条件。并将该定义与 BvH 和 HK 的现有方法进行比较,进而将其推广为一种责任度量。
Oct, 2023
本文介绍一种新的框架 —— 结构性因果博弈,它将因果层级扩展到博弈论领域,以及介绍了一种基于因果游戏的 Python 库。该框架支持机械化博弈,定义了因果查询并与其他因果或博弈理论模型进行了比较。
Jan, 2023
本文分析了多智能体强化学习算法中可能出现的协作失败问题,并提出了一种 “策略共鸣” 方法来解决此问题,并证明了该方法对于提高智能体在复杂协作任务中的性能是有效的。
Aug, 2022
本文在 Dec-POMDPs 框架下研究了实际因果关系和责任归因等概念,提出了一种考虑各种因果依赖和责任能够自我调整的责任归因方法,并通过模拟实验比较了不同定义的实际因果关系和责任归因方法之间的差异和影响。
Apr, 2022