通过辩论交流解决冲突的交互式解释
本文综述了利用计算论证方法建立的可解释 AI 方法,重点关注其不同类型的解释,使用的不同模型,不同交互方式和不同的论证框架。此外,我们还规划了未来的发展方向。
May, 2021
理解何时以及为何应用特定的可解释人工智能技术并非易事。本文旨在解决在需要解释时选择最合适的解释器这一挑战。为了使人工智能的可解释性能产生效果,解释以及如何呈现解释需要针对接受解释的利益相关者进行定向。如果一般情况下不存在一种单一的解释技术超过其他技术,那么就需要进行现有方法的推理以选择最适合上下文的解释器。基于其提供的透明度,我们建议采用论证技术来在一组可行解释器中达成一致并选择最合适的解释器。本文中,我们提出了一个模块化推理系统,包括与相关利益相关者的心智模型,解决由多个解释器组件生成的论证问题的推理组件,以及适合于感兴趣的利益相关者的人工智能模型。通过正式化支持前提和推理,我们可以将利益相关者的特征映射到解释技术的特征,从而使我们能够对技术进行推理,并为给定上下文优先选择最佳技术,同时还提供选择决策的透明度。
Dec, 2023
通过论证式对话的方式,我们提出了一个新的框架,使得 AI 代理能够学习和更新概率性的人类模型,从而更好地理解人类的思维状态,通过人类对其论点的信任和对自己论点的确信程度,调整概率分布,并在论证场景中的人类主体研究中证明了该方法捕捉了人类信念形成和适应的动态过程。
May, 2024
本文探讨了可解释人工智能系统中的交互式解释问题,并提出了一种基于代理对话框架的交互协议模型,通过对 398 个解释对话的分析和人机交互实验的验证,证明该模型能够准确地模拟人机交互对话。
Mar, 2019
该研究提出了一种基于论证对话的人工智能体架构,将人类规则映射到可以解释行为的人工智能文化中,并通过用户研究验证了其有效性,结果表明当系统更加复杂时,解释可以显著提高人类绩效表现。
Nov, 2019
本文介绍了如何将可解释人工智能(XAI)应用于对话代理中,通过使用自然语言理解和生成组件来理解用户的信息需求并提供相应的解释。作者通过综合调查文献,提出了一份全面的可解释人工智能问题列表及相应的解释方法。
Sep, 2022
本文旨在探讨为了与用户建立信任,可解释人工智能系统需要包括一个解释模型,其可以向交互的人类沟通其内部的决策、行为和操作。该文通过对 398 种不同解释对话类型的记录进行分析,提出了一种人类解释对话模型,并使用基础理论进行编码和确定其关键成分,还进一步分析了对话中发生的序列和周期的关系,提出了一种泛化状态模型。
Jun, 2018
深度神经网络的可解释性问题可以通过采用不同的科学解释模型,避免当前解释模糊性而产生的困惑,更有助于用 “可理解的人工智能” 标签避免 XAI 的混淆。
Mar, 2024