我们研究了自由形式对话是否可以提高用户理解静态解释的能力,改善对解释方法的接受度和信任度,并促进人工智能与人类的合作。实证结果表明,对话显著提高了理解、接受度、信任度和合作能力,强调了以自由形式对话的方式提供定制化模型解释的重要性,并为未来的对话解释设计提供了启示。
Sep, 2023
本文介绍了如何将可解释人工智能(XAI)应用于对话代理中,通过使用自然语言理解和生成组件来理解用户的信息需求并提供相应的解释。作者通过综合调查文献,提出了一份全面的可解释人工智能问题列表及相应的解释方法。
Sep, 2022
理解何时以及为何应用特定的可解释人工智能技术并非易事。本文旨在解决在需要解释时选择最合适的解释器这一挑战。为了使人工智能的可解释性能产生效果,解释以及如何呈现解释需要针对接受解释的利益相关者进行定向。如果一般情况下不存在一种单一的解释技术超过其他技术,那么就需要进行现有方法的推理以选择最适合上下文的解释器。基于其提供的透明度,我们建议采用论证技术来在一组可行解释器中达成一致并选择最合适的解释器。本文中,我们提出了一个模块化推理系统,包括与相关利益相关者的心智模型,解决由多个解释器组件生成的论证问题的推理组件,以及适合于感兴趣的利益相关者的人工智能模型。通过正式化支持前提和推理,我们可以将利益相关者的特征映射到解释技术的特征,从而使我们能够对技术进行推理,并为给定上下文优先选择最佳技术,同时还提供选择决策的透明度。
Dec, 2023
本文旨在探讨为了与用户建立信任,可解释人工智能系统需要包括一个解释模型,其可以向交互的人类沟通其内部的决策、行为和操作。该文通过对 398 种不同解释对话类型的记录进行分析,提出了一种人类解释对话模型,并使用基础理论进行编码和确定其关键成分,还进一步分析了对话中发生的序列和周期的关系,提出了一种泛化状态模型。
Jun, 2018
研究如何让领域专家能够有效地与机器学习模型进行互动和问责,通过自然语言对话的形式提供交互式的解释。
Feb, 2022
通过对智能辅导系统生成解释进行个性化处理,针对具有认知需求和勤奋度水平较低的学生,旨在增加这些学生对解释的参与度以促进学习,在用户研究中发现,该个性化处理显著增加目标用户与提示解释的互动、理解程度和学习效果,因此,该研究为个性化 AI 解释在学习等认知要求较高的任务中提供了有价值的见解。
Mar, 2024
本文介绍了一个对话式解释语料库,用于 NLP 研究人类解释过程,并探讨基于 BERT 的基线结果。
为了建立对 AI 的信任,实现透明化且易懂的 AI 系统成为了重要问题,本文提出了一种通过 AI Planning 实现初步解释的方法,并实现在新的 XAI-Plan 框架中。
Oct, 2018
本文探讨了可解释人工智能系统中的交互式解释问题,并提出了一种基于代理对话框架的交互协议模型,通过对 398 个解释对话的分析和人机交互实验的验证,证明该模型能够准确地模拟人机交互对话。
Mar, 2019
通过交互式机器学习,将对比解释应用于黑盒机器学习系统,个性化调整其条件语句并通过提问 “What if?” 的方式提取更多解释,从而提高系统的透明度。
Jan, 2020