神经网络的全局解释:预测的映射景观
结合图生成的角度,本文综述了用于图神经网络的解释方法,并就生成解释方法提出了统一的优化目标,包括归因和信息约束两个子目标。通过揭示现有方法的共享特性和差异,为未来的方法改进奠定了基础。实证结果对不同的解释方法在解释性能、效率和泛化能力方面的优势和局限性进行了验证。
Nov, 2023
本文通过研究图神经网络(GNNs)中个别神经元的行为,提出新的度量方法和全局解释方法,证明 GNN 神经元充当概念探测器,在逻辑组合的节点度和邻域属性的概念中具有良好的对齐性,将 GNNs 转换成易于理解的概念级别,提高模型的解释性和透明性,并通过实验证明了其优越性。
Aug, 2022
本论文提出了一种新的双替代可解释性框架,用于解释任何基于 CNN 的图像分类器所做的决策,该框架不仅提取出潜在特征并把它们与已知 “上下文” 特征进行对齐,还形成了语义上有意义的概念,用于提取描述 “感知” 数据生成过程的因果图。
Jul, 2022
本研究提出了一种名为 GALE 的机器学习模型,旨在提供有关模型全局决策过程的洞见。结果表明,聚合方法的选择很重要,我们的提出的聚合方法能更好地代表特征如何影响模型的预测,并通过识别区分性特征提供全局洞见。
Jul, 2019
Attri-Net 是一种用于多标签分类的具有内在可解释性的模型,它能提供局部和全局解释,通过生成类别特定的归因图,并基于归因图通过逻辑回归分类器进行分类。该模型在保持分类性能的同时,能够生成与临床知识一致的高质量解释。
Jun, 2024
通过从图神经网络的预测中提取全局概念解释的方法,我们提出了一种超越提高信任和验证模型公平性的 xAI 实践,还能够在几乎没有人类先验直觉的应用领域中发现有价值的科学见解,从而对结构 - 性质关系的任务进行更深入的理解。
Apr, 2024
通过运用博弈论、局部特征交互作用效应和全局模型结构,我们实现了对基于树的机器学习模型的高可解释性,应用于三个医疗机器学习问题,在透露模型全局结构的同时保持其基本特征,识别出美国人口中高强度但低频率的非线性死亡风险因素,突显具有共同危险特征的明显人口亚组,识别出慢性肾脏疾病危险因素之间的非线性交互作用效应,并监测在医院部署的机器学习模型(Identifying factors leading to model's performance decay over time)
May, 2019
本研究提出了一种基于光滑景观的预测且稳定的神经网络模型解释方法,通过批量学习噪声复制品并采用 L1 规范化方法对显著性地图进行训练,使模型学习得到局部光滑模型解释,有效地找出与预测结果相关的输入要素并且在对抗样本测试中表现优异。
Mar, 2021
本文在财务领域探讨复杂机器学习模型的解释方法。通过使用生成对抗网络生成合成数据并训练一种新型的分段线性模型,能够提供更好的局部后续模型无关解释,其中包括对单个特征的归因以及对其背景的解释。
Sep, 2020