本研究提供了一个关于如何结构化学习过程以更好地向机器学习领域的学生和研究人员传授知识的教学观点,包括何时以及如何实现各种可解释性技术以及如何解释其结果。同时,讨论了利用各种不透明和透明的机器学习模型,以及何时利用特定的可解释性技术和用于可解释性工具的各种框架的优缺点。最终,作者还提出了结构潜在任务以最好地帮助学生学习如何将解释性作为给定机器学习应用的工具的方式。
Feb, 2022
该文章重点讨论解释目标驱动型智能代理人和机器人的方法,强调透明度、可理解性和持续学习的策略。它提出了可行的目标驱动可解释代理人和机器人的实现路径和要求。
Apr, 2020
介绍了在多智能体环境下,通过提供解释来增加用户满意度的重要性,提出了一个新的研究方向 xMASE,并回顾了现有的技术水平和为提高用户满意度而生成解释的算法。
Oct, 2019
自动驾驶汽车中人工智能的可解释性和人机界面对于建立信任起到重要作用,因此本研究探讨了可解释性人机系统的作用,提出了一种评估用户对自动驾驶行为的信任的情境感知框架,并通过实验证明了相关的经验结果。
Apr, 2024
该研究提出了一种基于论证对话的人工智能体架构,将人类规则映射到可以解释行为的人工智能文化中,并通过用户研究验证了其有效性,结果表明当系统更加复杂时,解释可以显著提高人类绩效表现。
Nov, 2019
本文探讨了透明度逐渐成为自主智能系统的必要品质,提供了人性化的基于成功概率的解释方法,并通过用户调查证明该种解释对于非专业人士更易理解和接受。
Jul, 2022
介绍了解释在人工智能和机器学习决策系统中所扮演的角色,提供了解释的替代概念,并评估了现有解释方法和所需的特点。
Aug, 2018
本文介绍了一种名为 TED(Teaching Explanations for Decisions)的实用框架,它提供了能够匹配消费者心智模型的有意义的解释,通过两个例子的演示,表明这种方法的广泛性和有效性,同时无损准确性。
Nov, 2018
研究如何让领域专家能够有效地与机器学习模型进行互动和问责,通过自然语言对话的形式提供交互式的解释。
本文探讨了可解释人工智能系统中的交互式解释问题,并提出了一种基于代理对话框架的交互协议模型,通过对 398 个解释对话的分析和人机交互实验的验证,证明该模型能够准确地模拟人机交互对话。
Mar, 2019