人工智能系统的道德责任
本文在 Dec-POMDPs 框架下研究了实际因果关系和责任归因等概念,提出了一种考虑各种因果依赖和责任能够自我调整的责任归因方法,并通过模拟实验比较了不同定义的实际因果关系和责任归因方法之间的差异和影响。
Apr, 2022
本论文提出了适用于行动语言的实际因果关系定义,以联系自动化规划和因果关系,并显示了因果关系在伦理推理模拟中的重要性,从而使领域得以处理先前无法解决的情况。
May, 2022
提出了一种基于因果道德的在线强化学习方法,并给出了应用该方法解决道德困境的案例,该方法可以使代理程序在学习决策时考虑是否造成伤害,更好地符合我们的道德判断。
May, 2022
为了在涉及AI-enabled系统的复杂情况中理解责任应当在何处,首先我们需要有一个足够清晰和详细的跨学科的责任词汇;本文通过以 'Actor A对Occurrence O负责' 的三部分表述,识别了A、负责和O的有效组合,形成了四种责任的含义,并通过两个案例进行了阐述,最终形成了81个责任词组。这些词组为不同学科的人们提供了明确和具体的方式,解释在寻求责任的复杂事件中,不同的行动者对不同的事件负有责任的不同方式,从而允许精确和有针对性的跨学科规范性讨论。
Aug, 2023
人工智能系统的伦理责任是对其可能用于冲突应用的非军事应用进行理论分析和实践方法的介绍,包括通过建立多视角能力测试、集成数字水印和利用监测与报告机制来减轻开发者的道德责任。
Jan, 2024
人工智能引入的广泛整合在涉及AI系统的事件中引入了复杂的责任和问责挑战;本文提出了一种计算反思均衡方法,为所有利益相关者建立了一个连贯和道德可接受的责任归因框架,结合案例研究展示了该框架在责任归因过程中的可解释性、连贯性和适应性。
Apr, 2024
本研究旨在解决多智能体系统中责任归属的问题,尤其是在考虑多重结果的背景下。提出了一种新的责任归属模型,并扩展至责任预期,展示了如何通过责任的考量来指导智能体选择符合其价值观的战略。研究发现,非主导的遗憾最小化策略能够可靠地降低智能体的预期责任程度。
Oct, 2024
本研究解决了多智能体规划中责任量化的不足,通过引入基于概率交替时序逻辑的责任测量框架,创新性地将行为与责任之间的概率关联。研究发现,提出的熵基责任测量能够首次动态捕捉结果的因果责任特性,为理解多智能体系统中代理人在结果实现或防止中的作用提供了新的视角。
Oct, 2024
本研究解决了人工智能(AI)系统对决策结果的影响中责任归属的复杂性问题。通过提出基于结构性因果模型的框架,系统性地对人机系统中的责任进行归属,并利用反事实推理来考虑代理者的预期知识水平。研究显示,该框架在不同的人机协作场景中具有良好的适应性,能够提高责任划分的准确性。
Nov, 2024