多价值战略环境中的责任
使用因果影响图的框架,提出了代理奖励分析的方法,建立了信息价值的标准并引入价值控制的新图形标准和两个新概念:响应激励和工具控制激励,为这两个新概念提供了完备的图形标准,最终通过例子说明这些结果如何帮助评估 AI 系统的安全性和公正性。
Feb, 2021
本文在 Dec-POMDPs 框架下研究了实际因果关系和责任归因等概念,提出了一种考虑各种因果依赖和责任能够自我调整的责任归因方法,并通过模拟实验比较了不同定义的实际因果关系和责任归因方法之间的差异和影响。
Apr, 2022
本文旨在在计算预算下提供可行的算法解决归因责任问题。在引入一类特定的结构因果模型的基础上,使用蒙特卡罗树搜索方法高效地近似代理的责任度量,并通过模拟测试来评估算法效果。
Feb, 2023
预测责任是确定个体行为是否可能导致其对特定结果负责的过程,可用于多智能体规划环境中让智能体在考虑计划时预测责任。该论文定义了主动、被动和贡献性责任的归因,考虑了智能体的变体,并使用此定义了责任预测的概念。该模型证明了我们的预期责任概念可用于协调规划环境中的智能体,并给出了复杂性结果,探讨了与经典规划的等效性。我们还提出了使用PDDL求解器解决一些归因和预测问题的大纲。
Jul, 2023
伴随着越来越多具有重大伦理维度的决策外包到AI系统中,有必要找到一个可应用于AI系统的道德责任定义。本研究基于因果模型的框架提出了一种正式的道德责任定义,包括因果条件和认识条件。并将该定义与BvH和HK的现有方法进行比较,进而将其推广为一种责任度量。
Oct, 2023
该论文提出了一种将反事实责任和看管责任相结合的定义,阐述了责任的概念并研究了两种责任形式之间的鸿沟,表明在考虑到高阶责任时,这两种责任形式可以被规定在每种可能的情况下。
Dec, 2023
本文研究了在战略环境中基于LTLf的责任不同变体,填补了机器伦理和自主系统领域中的空白。通过将责任概念与反应合成中的相关理论相联系,提出了计算基本保障的框架,涵盖复杂性特征以及归属和预期责任的可靠、完整和最优算法。此研究有助于推进责任归属的自动化过程,带来重要影响。
Oct, 2024
本研究针对概率多智能体系统中缺乏责任意识的战略推理问题,提出了一种新的逻辑PATL+R,结合了因果责任的模式,为责任意识的多智能体战略推理提供了框架。研究发现,该框架可以优化责任和奖励的期望分配,并通过纳什均衡计算出责任意识纳什均衡策略,显著提升了多智能体系统的可信性与表现。
Oct, 2024
本研究解决了多智能体规划中责任量化的不足,通过引入基于概率交替时序逻辑的责任测量框架,创新性地将行为与责任之间的概率关联。研究发现,提出的熵基责任测量能够首次动态捕捉结果的因果责任特性,为理解多智能体系统中代理人在结果实现或防止中的作用提供了新的视角。
Oct, 2024
本研究解决了人工智能(AI)系统对决策结果的影响中责任归属的复杂性问题。通过提出基于结构性因果模型的框架,系统性地对人机系统中的责任进行归属,并利用反事实推理来考虑代理者的预期知识水平。研究显示,该框架在不同的人机协作场景中具有良好的适应性,能够提高责任划分的准确性。
Nov, 2024