对Halpern和Pearl提出的实际因果关系进行定义, 并且针对计算是否为一个因果关系提出复杂性问题, 进行定义修正, 并探究其对复杂度的影响, 引入了新的复杂度类 D_k^P,并且对计算因果关系的复杂度进行了全面分类和探究,还介绍了责任和指责的概念
Dec, 2014
我们提供了关于责任和意图的正式定义,并应用于具有悖论情境的案例,从而阐明了道德判断中的关键因素。
Oct, 2018
本文旨在通过正式定义充分解释和反事实解释的因果概念,为解释人工智能(XAI)提供可靠的行动指导解释,并阐述其在AI公平性中的意义。
Jan, 2022
本文在 Dec-POMDPs 框架下研究了实际因果关系和责任归因等概念,提出了一种考虑各种因果依赖和责任能够自我调整的责任归因方法,并通过模拟实验比较了不同定义的实际因果关系和责任归因方法之间的差异和影响。
Apr, 2022
提出了一种基于因果道德的在线强化学习方法,并给出了应用该方法解决道德困境的案例,该方法可以使代理程序在学习决策时考虑是否造成伤害,更好地符合我们的道德判断。
May, 2022
因果推理对于评估公平性至关重要,尤其是自动化决策和合法反歧视程序中。在实践中应用因果关系的挑战和限制以及可能的解决方案也进行了讨论。
Jul, 2022
在自动化系统越来越广泛的应用下,需要建立一个法律和监管框架,以便确定这类系统何时及如何对他人造成伤害。然而对于定义伤害并无一定之规的问题,我们提出了一种基于因果模型和对比因果分析的质性伤害定义方法,用于处理多种伤害示例,并显示其对自动化系统相关情境推理的重要性。
Oct, 2022
伴随着越来越多具有重大伦理维度的决策外包到AI系统中,有必要找到一个可应用于AI系统的道德责任定义。本研究基于因果模型的框架提出了一种正式的道德责任定义,包括因果条件和认识条件。并将该定义与BvH和HK的现有方法进行比较,进而将其推广为一种责任度量。
Oct, 2023
通过综合200篇代表性文献的见解,我们的综合调查桥接了对常识因果推理的认知差距,并在共识因果关系的分类、基准、获取方法、定性推理和定量测量方面提供了系统的概述、最新研究进展、新手们的实用指南以及未来研究方向的重要提示。
Jun, 2024
本研究解决了人工智能(AI)系统对决策结果的影响中责任归属的复杂性问题。通过提出基于结构性因果模型的框架,系统性地对人机系统中的责任进行归属,并利用反事实推理来考虑代理者的预期知识水平。研究显示,该框架在不同的人机协作场景中具有良好的适应性,能够提高责任划分的准确性。
Nov, 2024