本文介绍了将认知 - 情感模型转化为辅助代理程序的路线图,以帮助减少道德价值行动差距并进行自我调节和思考。
Feb, 2022
本文提出了一个基于模态逻辑和论证的逻辑框架,用于解决自主代理人在执行任务时产生的冲突问题,并评估哪个计划应该被采纳。
Apr, 2022
本文中,我们将一个常见的验证方法应用于我们的后果引擎,以增强自主系统的道德决策能力。
Apr, 2015
本文提供一个源于社会科学、能够形式化表达价值的形式化表述,并使用此表述明确了实现 AI 价值对齐的关键挑战和研究路线图。
May, 2023
提出了一个在规划背景下进行伦理决策的框架,旨在应用于机器人。使用线性时间逻辑和词典偏好建模,提出了紧凑但高度表达的伦理规划语言,允许我们评估代理人的价值和欲望,引入了代理人的道德水平概念,并向多目标、多价值规划迈进。初步研究了规划任务的计算复杂性,并讨论了机器人的潜在应用。
Jun, 2022
通过社会科学根植的正式概念框架,系统、集成和跨学科地探究人类价值如何支持设计道德人工智能,从而解决价值对齐问题和其他相关的挑战,如人工智能学习人类价值观、将个人价值观聚合到群体中和设计计算机机制来处理价值观。
本论文提出了适用于行动语言的实际因果关系定义,以联系自动化规划和因果关系,并显示了因果关系在伦理推理模拟中的重要性,从而使领域得以处理先前无法解决的情况。
May, 2022
论文提出了一个基于 ConGolog 编程语言和非确定情景演算的抽象化代理行为的通用框架,在支持策略推理和策略合成的同时,实现了代理动作和环境反应的分离量化。如果代理在抽象层次有一个 (plan/strategy) 可以实现目标 / 完成任务,并且可以在具体层次始终执行非确定性的抽象行为从而实现目标 / 任务,则存在一个对具体目标 / 任务的细化的 (plan/strategy) 实现。
在一个简单的领域中,我们探索了在不同伦理框架中知识的编码如何影响代理人的目标制定和规划过程,并展示了代理人在相关约束的集合中包含各种类型的 “硬性” 和 “软性” 约束时满足和满足的能力。我们研究了代理人如何尝试遵守伦理约束,这取决于伦理框架,并探讨了以德性导向和功利导向来遵守伦理规范之间的权衡。代表性场景突显了以不同框架对同一规范执行相同任务将导致不同行为。我们的探索表明,在目标制定和规划过程中解决伦理冲突时,元认知判断发挥重要作用。
May, 2024
本文论述一种框架,通过交互式体验使自主代理学习抽象因果模型需要扩展并澄清现有的理论基础,该框架将动作描述为状态空间的转换,从而使描述微状态空间的转换和抽象模型的转换成为可能,进而将因果表示和干预技能学习的目标变得更加清晰。