开发了一种新的可解释因果图神经网络框架,结合图信息瓶颈理论和基于检索的因果学习,能够半参数地检索关键子图并通过因果模块压缩解释性子图,在真实世界的多样解释场景中表现出比现有方法更高的准确率和 32.71% 更高的预测能力。
Feb, 2024
本文介绍了一种基于信息瓶颈原理的图形数据表示学习方法 —— 图信息瓶颈,该方法通过优化平衡了图形网络结构和节点特征的表达方式的表达性和鲁棒性,设计了两种采样算法进行结构方面的正则化,并使用两个新模型:GIB-Cat 和 GIB-Bern 来实现 GIB 原则,证明了其比最先进的图形防御模型更具有鲁棒性。
Oct, 2020
本文提出了图信息瓶颈(GIB)框架,解决了深度图学习中子图识别问题,并在三种应用场景下评估 IB 子图的性能。
本文提出了一种基于信息瓶颈原理的无监督子图信息瓶颈(USIB)的图解释方法,通过理论分析表明图信息建模表示的精确性与鲁棒性有助于解释性子图的可靠性。实验结果表明所提出的模型优于现有模型。
May, 2022
通过引入信息瓶颈理论的设计,结合相似桥接原理和互信息估计式的互动,提出了一种新型的子图信息瓶颈架构来识别预测压缩的子图,成功去除了图数据中的噪音和冗余,具有高效和稳定性,得到了较好的优化结果和理论边界。
Mar, 2021
本文提出一种新的图信息瓶颈框架,该框架可以通过邻域瓶颈减轻结构噪声,并在优化中加入伪标签以实现对成员隐私的保护,在真实世界数据集上进行了广泛的实验,证明了我们的方法可以提供强大的预测并同时保持成员隐私。
Jun, 2023
基于图信息瓶颈的自解释时态图网络(TGIB)是一种新的内置解释框架,能够同时对事件发生和解释进行预测,通过引入信息瓶颈理论中的随机性来对事件发生提供解释。实验结果表明,与现有方法相比,TGIB 在链接预测性能和可解释性方面具有优势。
Jun, 2024
本研究提出了一种框架,可以学习原型图,从而同时提供准确的预测和基于原型的解释,用于自我解释的图神经网络,实验结果表明其在真实和人工数据集上都具有良好的预测和解释质量。
Oct, 2022
该研究提出了一种名为 Variational Graph Information Bottleneck (VGIB) 的框架,用于识别图形中最具信息量的压缩子结构,VGIB 通过对图形施加噪声注入的方式,再通过过滤噪声来获得所需的子图,并在图解释、图神经网络的可解释性和图分类等方面进行了广泛实验。
Dec, 2021
我们展示了在传统方法无法获得满足可解释性准则的解释时,一种基于修改后的图信息瓶颈原理的因子解释模型的有效性,并进行了广泛实验证实。
Dec, 2023