人机协作中的因果责任归属
该研究提出一种基于因果关系的方法来解释黑盒决策系统,并使用概率对比反事实证明其有效性,能够为受算法决策影响的个体提供可行的补救措施。该方法不需要了解算法内部结构,能够计算全局、局部和情境层面的有效解释和补救措施。经实验证明,该方法较 XAI 的其他流行算法效果更好。
Mar, 2021
本文在 Dec-POMDPs 框架下研究了实际因果关系和责任归因等概念,提出了一种考虑各种因果依赖和责任能够自我调整的责任归因方法,并通过模拟实验比较了不同定义的实际因果关系和责任归因方法之间的差异和影响。
Apr, 2022
本文综述了因果方法对于提高可信 AI 解决方案的应用和发展,因为现有的 AI 模型大多缺乏对人类真实世界理解的因果关系的认识,从而导致了模型泛化性能差、不公平以及难以解释等问题。
Feb, 2023
本文旨在在计算预算下提供可行的算法解决归因责任问题。在引入一类特定的结构因果模型的基础上,使用蒙特卡罗树搜索方法高效地近似代理的责任度量,并通过模拟测试来评估算法效果。
Feb, 2023
通过研究文献,我们发现因果关系和可解释人工智能(XAI)是紧密联系的,彼此之间存在三种关系视角:缺乏因果关系限制了当前人工智能与可解释人工智能方法的发展,理想的解释形式的探索,以及因果关系作为可解释人工智能的先导,并通过从因果关系中借用概念、利用反事实以及将因果模型作为自我解释等方式进行研究。通过提供相关软件解决方案,我们为自动化因果任务提供了补充分析,并强调了因果关系和可解释人工智能领域之间的潜在领域桥梁和可能的限制。
Sep, 2023
伴随着越来越多具有重大伦理维度的决策外包到AI系统中,有必要找到一个可应用于AI系统的道德责任定义。本研究基于因果模型的框架提出了一种正式的道德责任定义,包括因果条件和认识条件。并将该定义与BvH和HK的现有方法进行比较,进而将其推广为一种责任度量。
Oct, 2023
人工智能引入的广泛整合在涉及AI系统的事件中引入了复杂的责任和问责挑战;本文提出了一种计算反思均衡方法,为所有利益相关者建立了一个连贯和道德可接受的责任归因框架,结合案例研究展示了该框架在责任归因过程中的可解释性、连贯性和适应性。
Apr, 2024
本研究解决了人工智能决策支持系统(AI-DSS)在满足伦理和可解释性要求方面的不足,提出了RCC方法,旨在为人类决策者提供理由、反事实和信心等三种以人为中心的解释。研究提出的认知准伙伴关系理论(EQP)能够有效解释当前的实证证据,提供合理的伦理建议,并促进RCC方法的采用。
Sep, 2024
本研究解决了多智能体规划中责任量化的不足,通过引入基于概率交替时序逻辑的责任测量框架,创新性地将行为与责任之间的概率关联。研究发现,提出的熵基责任测量能够首次动态捕捉结果的因果责任特性,为理解多智能体系统中代理人在结果实现或防止中的作用提供了新的视角。
Oct, 2024