使用分子反事实证明解释深度图网络
RLHEX 是一种新颖的全局解释模型,结合了 VAE-based graph generator 和适应人类定义原则的适配器,可生成与领域专业知识相一致的反事实解释,用于分子属性预测。
Jun, 2024
本研究提出了 GCFExplainer 算法来解释图神经网络的全局可解释性,通过全局反事实推理寻找一组代表性的反事实图形,实验结果表明与现有局部反事实解释器相比,GCFExplainer 算法能够提供更重要的高层次 Model 行为见解,并以 46.9% 的弥补覆盖率和 9.5% 的弥补成本降低取得更好的结果。
Oct, 2022
本文介绍了一种新颖的用于少样本分子属性预测的模型 Meta-MGNN,该模型利用分子图神经网络学习分子表示,并构建元学习框架进行模型优化,在公共数据库上的实验结果表明,Meta-MGNN 优于其他多种先进的方法。
Feb, 2021
通过从图神经网络的预测中提取全局概念解释的方法,我们提出了一种超越提高信任和验证模型公平性的 xAI 实践,还能够在几乎没有人类先验直觉的应用领域中发现有价值的科学见解,从而对结构 - 性质关系的任务进行更深入的理解。
Apr, 2024
研究者们提出了一种新的机器学习方法 Graph Networks,开发了通用的 MEGNet 模型,成功地预测了分子和晶体的物性,并提出了两个解决材料科学和化学数据局限性的新策略。
Dec, 2018
提出了一种能够生成对于噪音稳健且符合人类直觉的图神经网络的可靠反事实解释的新方法,该方法明确地对相似输入图的常见决策逻辑进行建模,并从许多相似输入图的公共决策边界中产生可靠的解释。
Jul, 2021
本文提出了一种新的可解释 AI 方法 CF^2,结合因果推断理论的概念,通过优化问题,生成了一种两个因果视角的模型无关框架,用于产生 GNN 解释,并提供了一组基于对照和实际推理的度量方法,用于定量评估生成解释的必要性和充分性,实验证明在真实世界的数据集上,无论是否提供基本真理解释,CF^2 的生成解释都比以前的最先进方法更好。
Feb, 2022
通过使用基础单元为基本图案生成解释的基于 Motif 的 GNN 解释器(MAGE),本研究解决了分子图神经网络在解释性方面所面临的挑战。通过定量和定性评估六个真实世界分子数据集,验证了该方法的有效性。
May, 2024
使用多视图神经网络和交叉依赖的消息传递机制,以预测分子性质为目的,构建了一种能够同时利用节点(原子)和边(化学键)信息的表达力强的模型,并在多个基准测试中表现出优异性能。
May, 2020