IJCAISep, 2017
可解释规划
Explainable Planning
Maria Fox, Derek Long, Daniele Magazzeni
TL;DR该论文探讨了人工智能的交互问题,提出了一种基于模型的 AI 规划方法,以实现人类与智能系统的有效沟通和协同解决问题的目标。
Abstract
As ai is increasingly being adopted into application solutions, the challenge
of supporting interaction with humans is becoming more apparent. Partly this is
to support integrated working styles, in which humans
发现论文,激发创造
AI 规划器决策的解释方法探讨
为了建立对 AI 的信任,实现透明化且易懂的 AI 系统成为了重要问题,本文提出了一种通过 AI Planning 实现初步解释的方法,并实现在新的 XAI-Plan 框架中。
Oct, 2018
走向可解释的 AI 规划为服务
该篇论文探讨可解释人工智能领域内的可解释式规划作为一项新兴研究课题,并提出了将其设计为一种服务的想法,即利用已有的规划系统构建一个包装器,以协助回答对比问题。作者针对该想法进行了原型框架的开发,并举例说明了规划器如何用于回答某些类型的对比问题,同时也讨论了此方法的主要优点和局限性,并提出了可解释式规划服务的未解决问题和研究方向。
Aug, 2019
可解释计划代理的可视化
本文介绍了一种可视化 Explainable AI Planning 代理的能力,该代理可以支持人们做出决策,并展示了如何将规划可视化作为规划解释问题来快速提供其计划的模型可视化。
Sep, 2017
人机协作中的交互式计划可解释性
本文考虑了人机团队合作的问题,并基于计划可解释性的概念,将其扩展到考虑交互设置。结果表明,我们的算法生成的计划的可解释度得分与人类计划相当,并且比不考虑该度量的 FF 计划更好,从而更好地满足人类期望,提高人机合作效率。
Jan, 2019
机器人任务规划的可解释性和可预测性
针对智能机器人的高水平任务计划存在的问题,提出了 “计划可解释性” 和 “可预测性” 的概念,通过条件随机场模型学习标签方案并对新计划进行标签,用以提高机器人计划的可解释性和可预测性,该方法经过了人机交互和实际机器人测试并取得了较好的性能。
Nov, 2015