深度神经网络实现的模式识别系统比线性模型取得更好的结果,然而它们的缺点是黑盒特性。该论文展示了可解释分类器与黑盒分类器在 MNIST 和 FashionMNIST 数据库上完成匹配分类决策,如果使用 Zadeh 的模糊逻辑函数作为分类器并且 DeconvNet 重要性给予真值作为输入,这使得解释分类器成为数据库和识别器架构的最佳特征值转换方式。
Jan, 2024
提出一种新的方法,通过生成人可理解的视觉解释来增强深度神经图像分类器的可解释性,并且该方法通过同时优化三个标准:解释应该少、多样化和可理解,以自动找出区分类别的关键视觉解释。
May, 2024
该论文研究了如何利用深度学习神经网络中学习到的内在特征,利用概念分析方法和归纳逻辑编程理论,构建基于符号的模型,实现黑盒机器学习的可解释性,体现其透明度和可靠性的要求。
May, 2021
本文发现了一个问题:通过微调输入图像,我们可以演示图像识别的解释方式可以通过进化策略对其进行任意操作。通过我们的 Adversarial XAI 算法 AttaXAI,我们能够在不使用梯度或其他模型内部的情况下,成功地在黑盒设置下操作解释方法,从而实现了对图像做微小改变却使 XAI 方法输出特定解释的目标。
Nov, 2022
我们提出了一种名为 Neural DNF-EO 的模型来扩展 pix2rule 的神经 DNF 模块以支持多类别和多标签分类任务,并探索模型的可扩展性和可解释性,并且证明我们的模型类似于神经网络,但提供了更好的可解释性。
Mar, 2023
本文提出了一种使用深度强化学习中的策略来压缩神经模糊控制器的算法,该方法通过蒸馏将深度神经网络里的模型精华提取并转化成较小的规则库,可以在保持灵活性的同时,提升模型的可解释性。作者在 OpenAI Gym 上进行了测试,取得与深度强化学习相当的表现,但只需 2 至 6 条模糊规则。
Sep, 2022
通过深度非参数凸化滤波(DNCF)的计算摄影通用框架,本研究旨在从不完美的图像中恢复真实场景,涵盖降噪、超分辨率、修复和闪光等图像形成背后的物理方程,并验证其能够实时防御对图像分类深度网络的敌对攻击算法。
Sep, 2023
该文提出了一种名为 “可解释的几何深度网络” 的端到端学习方法,用于在高维数据中实现精细的可解释性,例如神经成像和神经科学研究。该方法采用学习解释性因素来增强鉴别性表示提取,以实现可解释的预测和分类结果。
Jan, 2023
本研究提出一种基于医学概念的可解释卷积神经网络框架,可用于识别超声标准平面,并构建关键医学概念之间的关系,从医生的认知角度解释,并在实验中取得了实质性的解释性能提升。
Jan, 2022
本文提出了一种神经模糊推理系统,用于分类应用,可以选择不同的输入变量集合构建每个模糊规则的前提部分,且该方法比一些先前方法在某些真实世界分类问题中具有更好或非常接近的性能。
Oct, 2022