本研究基于以往形式化计算逻辑所建立的伦理理论模型来研究机器伦理学中的德性伦理学,提出了道德品德规范化的计算方法,并运用于人工智能代理的实现。
Dec, 2018
本文提出伦理约束 AI 的概念,探讨在 AI 普及的情况下如何确保 AI 代理具备合适的伦理品质与决策技能,涉及决策制定中的模块化和组合方法。
本文探讨了 AI 和 NLP 领域中的伦理学问题,重点关注了自动化伦理判断的 Delphi 模型,并提出了批判性的观点和如何通过透明度、民主价值观和简单明了的问责机制来推动机器伦理学的发展。
Nov, 2021
本文提供一个源于社会科学、能够形式化表达价值的形式化表述,并使用此表述明确了实现 AI 价值对齐的关键挑战和研究路线图。
May, 2023
在这篇论文中,我们提出 / 改进 / 扩展了基于动态(运行时)逻辑的自我检测技术,以确保自主智能代理的可靠和道德行为。
Feb, 2024
文章提出一种新方法,强调数据标注在维护机器伦理方面的重要作用,并探讨了伦理基础、系统架构以及伦理定义的问题;同时,该文章还指出,建立伦理人工智能是为了在公司和用户之间建立信任基础。
Feb, 2023
本文围绕伦理学展开讨论,结合游戏、表现、人工智能和社会,尝试从计算复杂性角度寻找 AI 伦理建模的相关工具和可能的未来发展方向。
May, 2022
通过使用角色扮演游戏,如 Papers, Please 和 Life is Strange,我们提出设计一款系统性的角色扮演游戏,以培养人工智能中的道德美德,在现代人工智能技术的帮助下,我们激励实现这样的目标,并通过德性伦理学的视角检验他们的决策。
Aug, 2022
本文中,我们将一个常见的验证方法应用于我们的后果引擎,以增强自主系统的道德决策能力。
Apr, 2015
本文提出了一种基于道德和社会心理学的新型人工道德代理范式,在其中将价值观灌输给代理以实现因环境而异的、与其他道德代理互动的目标,从而引导代理与人类的价值观保持一致。