提出了一个在规划背景下进行伦理决策的框架,旨在应用于机器人。使用线性时间逻辑和词典偏好建模,提出了紧凑但高度表达的伦理规划语言,允许我们评估代理人的价值和欲望,引入了代理人的道德水平概念,并向多目标、多价值规划迈进。初步研究了规划任务的计算复杂性,并讨论了机器人的潜在应用。
Jun, 2022
本文提出了一种基于论证的方法,用于为可解释的人工智能系统生成关于其行动选择过程的解释,并附加有关冲突解决的信息;我们还应用该方法于清洁工作场景。
Sep, 2020
该研究提出了一个基于语言学、哲学、模态逻辑和自动规划的单智能体模态逻辑框架来推理关于目标导向的 “知道如何”,首先定义了一个模态语言来表达 “我知道如何保证 phi 在给定 psi 的条件下”,并给出了一个不基于标准认知模型而是标记的转换系统来表示代理人对自己的能力的了解的语义。并且给出了一个完备的证明系统来捕捉关于 “知道如何” 的有效推理模式,其中最重要的公理表明其组合性质。
May, 2015
本文研究了移动机器人的规划和推理问题,提出了一种扩展目标推理框架的方法,通过承诺实现多个智能体的合作行为,并将其应用于一个简化物流场景的原型实现。
本研究提出了一个计划推理框架并采用深度强化学习的方式进行训练,旨在解决多任务推理中公共的难题,即如何保持广泛的推理能力和高效的特定任务表现。通过共享推理规则和选择合适的推理路径,该模型在多个领域的实验中取得了良好的效果。
Feb, 2022
本文介绍了一个新颖的框架,使用归纳逻辑编程方法来以可解释的方式学习几个抽象和结构化的论证框架的可接受语义。通过实证评估,我们证明了我们的框架胜过现有的论证求解器,从而在形式论证和人机对话领域开启了新的未来研究方向。
Oct, 2023
本文旨在调查多模态和多代理系统是否在理性方面取得进展,通过概述最新的研究成果、鉴别单代理和单模态系统相对于理性的进步以及讨论开放性问题和未来方向。
Jun, 2024
本研究探讨了如何在法律智能领域中,使用结构化论证框架和 DL 本体论实现推理,并提供了对推理结果解释的正式定义。同时,以自动驾驶汽车设计为例,证明了该理论可以处理基于不一致本体的推理问题。
Sep, 2022
使用基于人物的多智能体框架进行辩论和讨论,以生成多样化且有说服力的论证,进一步改进了当前的语言模型生成表面的符号的问题。
本文提出了一种基于道德和社会心理学的新型人工道德代理范式,在其中将价值观灌输给代理以实现因环境而异的、与其他道德代理互动的目标,从而引导代理与人类的价值观保持一致。
Feb, 2023