战略游戏中的道德困境
提出了一种基于社交动态的常识道德学习模型,描述了道德困境的效用函数,用于解决抽象的道德维度上的交易,并通过贝叶斯模型刻画了个体和团体的社会结构,从有限的观测数据中推断出个体和团体的道德价值,并将该方法应用于自主车辆道德困境数据。
Jan, 2018
提出关于群体因多个主体联合防止不良结果而确定责任的正式定义,并使用合作博弈论的标准概念Shapley value,从群体的责任评估转化为个人的责任评估,旨在为设计行为具备道德准则的自主代理提供关键理论支持。
Mar, 2019
本文讨论了使用道德困境作为验证机制,以在伦理负荷情况下实施决策算法的伦理机器学习问题。作者认为这是哲学思想实验的误用,但还是可以适当地使用其它途径来解决伦理机器学习问题。
Mar, 2022
提出了一个在规划背景下进行伦理决策的框架,旨在应用于机器人。使用线性时间逻辑和词典偏好建模,提出了紧凑但高度表达的伦理规划语言,允许我们评估代理人的价值和欲望,引入了代理人的道德水平概念,并向多目标、多价值规划迈进。初步研究了规划任务的计算复杂性,并讨论了机器人的潜在应用。
Jun, 2022
该文探讨了将道德选择嵌入智能系统的重要性,提出了使用强化学习设计奖励结构以探究道德问题,并在三种社交困境游戏中分析了不同类型的道德如何影响智能体的行为,探讨了这些发现对于智能和混合人工智能社会的发展的影响。
Jan, 2023
机器道德系统需要有哪些特性是一个复杂的问题,且由于无共识的伦理困境的存在而使得问题更加复杂。本文提供了一个例子来说明我们不认为从利益相关者那里获取价值观可以确保这类系统的正确性。我们进一步定义了两个广泛的伦理属性类别,并向社区提出了一个挑战,以更加系统化的方式来研究这个问题。
Mar, 2024
人工智能与人类决策的整合越来越紧密,我们必须仔细考虑两者之间的相互作用。尤其是当前的方法着重于优化个体代理行为,但往往忽视了集体智能的微妙之处。群体动态可能要求一个代理(例如,人工智能系统)对另一个代理(例如,人类)中的偏见和错误进行补偿,但这种补偿应该经过慎重发展。我们提供了一个理论框架,通过综合博弈论和强化学习原理演示了来自代理的连续学习动态的欺骗性结果的自然出现。我们提供了涉及马尔可夫决策过程(MDP)学习相互作用的模拟结果。然后,这项工作为我们在动态和复杂的决策环境中对AI代理应对其他代理的偏见和行为的条件进行了道德分析提供了基础。总的来说,我们的方法涉及了人类战略欺骗的微妙角色,并对以前的假设提出了挑战,即其有害的影响。我们断言,对他人偏见的补偿可以增强协调和道德一致性:当人工智能系统在道德管理下进行战略欺骗时,可以积极塑造人工智能与人类之间的互动。
Apr, 2024