多智能体系统中的责任测量
使用因果影响图的框架,提出了代理奖励分析的方法,建立了信息价值的标准并引入价值控制的新图形标准和两个新概念:响应激励和工具控制激励,为这两个新概念提供了完备的图形标准,最终通过例子说明这些结果如何帮助评估 AI 系统的安全性和公正性。
Feb, 2021
本文在 Dec-POMDPs 框架下研究了实际因果关系和责任归因等概念,提出了一种考虑各种因果依赖和责任能够自我调整的责任归因方法,并通过模拟实验比较了不同定义的实际因果关系和责任归因方法之间的差异和影响。
Apr, 2022
本文旨在在计算预算下提供可行的算法解决归因责任问题。在引入一类特定的结构因果模型的基础上,使用蒙特卡罗树搜索方法高效地近似代理的责任度量,并通过模拟测试来评估算法效果。
Feb, 2023
预测责任是确定个体行为是否可能导致其对特定结果负责的过程,可用于多智能体规划环境中让智能体在考虑计划时预测责任。该论文定义了主动、被动和贡献性责任的归因,考虑了智能体的变体,并使用此定义了责任预测的概念。该模型证明了我们的预期责任概念可用于协调规划环境中的智能体,并给出了复杂性结果,探讨了与经典规划的等效性。我们还提出了使用PDDL求解器解决一些归因和预测问题的大纲。
Jul, 2023
本研究解决了在多智能体马尔可夫决策过程中解释反事实结果的挑战。通过引入一种新颖的因果解释公式,我们能够将代理行动对结果的反事实效应分解为各代理和状态变量对该效应的贡献分数,进而展示出该方法在理解和解释多智能体互动过程中的潜在影响。
Oct, 2024
本文研究了在战略环境中基于LTLf的责任不同变体,填补了机器伦理和自主系统领域中的空白。通过将责任概念与反应合成中的相关理论相联系,提出了计算基本保障的框架,涵盖复杂性特征以及归属和预期责任的可靠、完整和最优算法。此研究有助于推进责任归属的自动化过程,带来重要影响。
Oct, 2024
本研究旨在解决多智能体系统中责任归属的问题,尤其是在考虑多重结果的背景下。提出了一种新的责任归属模型,并扩展至责任预期,展示了如何通过责任的考量来指导智能体选择符合其价值观的战略。研究发现,非主导的遗憾最小化策略能够可靠地降低智能体的预期责任程度。
Oct, 2024
本研究针对概率多智能体系统中缺乏责任意识的战略推理问题,提出了一种新的逻辑PATL+R,结合了因果责任的模式,为责任意识的多智能体战略推理提供了框架。研究发现,该框架可以优化责任和奖励的期望分配,并通过纳什均衡计算出责任意识纳什均衡策略,显著提升了多智能体系统的可信性与表现。
Oct, 2024
本研究解决了人工智能(AI)系统对决策结果的影响中责任归属的复杂性问题。通过提出基于结构性因果模型的框架,系统性地对人机系统中的责任进行归属,并利用反事实推理来考虑代理者的预期知识水平。研究显示,该框架在不同的人机协作场景中具有良好的适应性,能够提高责任划分的准确性。
Nov, 2024