该论文探讨了人工智能的交互问题,提出了一种基于模型的 AI 规划方法,以实现人类与智能系统的有效沟通和协同解决问题的目标。
Sep, 2017
该篇论文探讨可解释人工智能领域内的可解释式规划作为一项新兴研究课题,并提出了将其设计为一种服务的想法,即利用已有的规划系统构建一个包装器,以协助回答对比问题。作者针对该想法进行了原型框架的开发,并举例说明了规划器如何用于回答某些类型的对比问题,同时也讨论了此方法的主要优点和局限性,并提出了可解释式规划服务的未解决问题和研究方向。
Aug, 2019
本文介绍了一种可视化 Explainable AI Planning 代理的能力,该代理可以支持人们做出决策,并展示了如何将规划可视化作为规划解释问题来快速提供其计划的模型可视化。
AI 系统与人类的相互作用中,理解计算机中的心智模型和说明性交流对于实现合作场景和操纵人类期望至关重要。
May, 2024
介绍了在多智能体环境下,通过提供解释来增加用户满意度的重要性,提出了一个新的研究方向 xMASE,并回顾了现有的技术水平和为提高用户满意度而生成解释的算法。
Oct, 2019
本文探讨了透明度逐渐成为自主智能系统的必要品质,提供了人性化的基于成功概率的解释方法,并通过用户调查证明该种解释对于非专业人士更易理解和接受。
Jul, 2022
本文探讨了人类尺度的设计、测试和实现 Explainable Artificial Intelligence 的基本概念,并提出了一种 “自解释指南” 的方法,以帮助开发人员了解如何通过启用自解释来赋能用户。最后,提出了一套经过实证基础、以用户为中心的设计原则,可以指导开发人员创建成功的解释系统。
Feb, 2021
阐释可解释的人工智能(XAI)技术应用于复杂模型的机器学习系统中,以增强其透明度与验证,从而取得用户的信任。然而,XAI 在部署上存在局限性,因此透明度和严格验证更适合在获取人工智能系统信任时使用。
Jan, 2023
最近的实证研究调查了可解释人工智能对人工智能决策的影响,识别了挑战并提出未来的研究方向。
Dec, 2023
有关解释人工智能的最佳实践和挑战的调查表明,现有的解释方法尤其是对于深度神经网络而言不足以提供算法的公正性、数据偏见和性能。
May, 2018