本文综述了利用计算论证方法建立的可解释 AI 方法,重点关注其不同类型的解释,使用的不同模型,不同交互方式和不同的论证框架。此外,我们还规划了未来的发展方向。
May, 2021
理解何时以及为何应用特定的可解释人工智能技术并非易事。本文旨在解决在需要解释时选择最合适的解释器这一挑战。为了使人工智能的可解释性能产生效果,解释以及如何呈现解释需要针对接受解释的利益相关者进行定向。如果一般情况下不存在一种单一的解释技术超过其他技术,那么就需要进行现有方法的推理以选择最适合上下文的解释器。基于其提供的透明度,我们建议采用论证技术来在一组可行解释器中达成一致并选择最合适的解释器。本文中,我们提出了一个模块化推理系统,包括与相关利益相关者的心智模型,解决由多个解释器组件生成的论证问题的推理组件,以及适合于感兴趣的利益相关者的人工智能模型。通过正式化支持前提和推理,我们可以将利益相关者的特征映射到解释技术的特征,从而使我们能够对技术进行推理,并为给定上下文优先选择最佳技术,同时还提供选择决策的透明度。
Dec, 2023
本文介绍了一个新颖的框架,使用归纳逻辑编程方法来以可解释的方式学习几个抽象和结构化的论证框架的可接受语义。通过实证评估,我们证明了我们的框架胜过现有的论证求解器,从而在形式论证和人机对话领域开启了新的未来研究方向。
Oct, 2023
本文提出了基于概念挖掘和基于量化论证的模型(CAM),通过获得人类可理解的概念及其关系,进行知识表征和推理,从而提供一种透明、可解释的模型,该模型具有与人类理解相一致的知识,能够与其他最先进的模型取得竞争结果。
Aug, 2022
本研究针对可解释人工智能(XAI),提出了一种计算论证的交互式解释方法(AXs),以解决模型输出与人类决策之间的不一致性。实验结果表明,AXs 在 XAI 中可以有效地解决不当行为和决策冲突。
Mar, 2023
论文探讨了如何针对目标导向决策与论证性解释构建透明度的自动决策框架,其中使用基于假设的论证建模确保了 “好” 的决策的合理性,进而为不同用户提供精简与论证两种形式的解释。
Jan, 2022
本文提出了一种基于论证的方法,用于为可解释的人工智能系统生成关于其行动选择过程的解释,并附加有关冲突解决的信息;我们还应用该方法于清洁工作场景。
Sep, 2020
该研究是对人工智能模型解释的广泛调查,发现解释决策和原因的不同方法和原因的异质性导致了个体解释框架。
Oct, 2022
本论文讨论了关于可解释 AI 的理论,基于符号逻辑,探讨了三个维度(必要和充分条件、最小充分条件、最小必要条件)的决策理解,以及如何应用于非符号学习器。
May, 2023
本文以科学哲学理论作为分析视角,研究解释性方法在神经网络性能评估中的应用,并发现解释性方法的实用性依赖于人类领域知识和理解推理能力。本研究得出结论,基准测试解释性方法是迈向可信人工智能和机器学习的中心任务。