为了解决图神经网络的高计算成本和高人力成本问题,本研究提出了一种图条件潜在扩散框架(GNN-Diff),通过从粗略搜索中学习保存的检查点直接生成高性能的图神经网络,不需进行复杂的调参和搜索空间设计,比传统的扩散框架在生成高质量的图神经网络方面具有更好的表现。
May, 2024
IGNNet 是一个解释性图神经网络,用于处理表格数据,通过表征学习的方式捕获特征交互,大规模的实证研究证明 IGNNet 与 XGBoost、Random Forests 和 TabNet 等最先进的机器学习算法在处理表格数据时表现相当,同时 IGNNet 的解释与特征的 Shapley 值一致而无需额外的计算开销。
Aug, 2023
我们设计了一个更好的图神经网络预训练模型的微调策略(S2PGNN),该策略旨在提升模型性能,并在实证研究中展示了其在图级任务中的成果和比现有的微调策略更好的表现。
本研究提出了一种基于 GFlowNets 的 GNN Explainer(GFlowExplainer)方法,通过生成结构而非组合优化的方法来生成子图,加快对 GNN 预测结果的解释,并在综合性实验中证明了其优越性。
Mar, 2023
开发了一种新的可解释因果图神经网络框架,结合图信息瓶颈理论和基于检索的因果学习,能够半参数地检索关键子图并通过因果模块压缩解释性子图,在真实世界的多样解释场景中表现出比现有方法更高的准确率和 32.71% 更高的预测能力。
Feb, 2024
我们提出了一种使用代理图生成可解释子图的新方法,通过信息论设计的训练目标确保代理图符合训练数据的分布并保留基本的解释因素,从而实现更准确的图神经网络解释。
以图分类 benchmarks 为基础,提出了一种理论框架,通过 subgraph multilinear extension (SubMT) 来学习可解释图子图,设计了一种新的图神经网络架构(Graph Multilinear neT),在解释性和泛化性方面优于现有方法,提高了多项 benchmarks 上的表现。
Jun, 2024
本研究旨在解决预训练图神经网络和下游图数据之间结构差异的问题,提出了 G-Tuning 方法,通过调整预训练 GNN 来保留下游图的生成模式,有效改善了领域内和领域外的迁移学习实验结果。
Dec, 2023
本文讲解了如何通过域分解方案将 MeshGraphNets(MGN)应用于具有百万节点的 3D 网格,进而生成计算流体力学(CFD)模拟结果,并通过高阶数值积分技术提高 MGN 的准确性和训练时间,为其在实际应用中的大规模使用提供了有效的路径。
Apr, 2023
从平滑信号观测中的贝叶斯神经网络推断出的图结构学习以及不确定性量化可应用于数据结构不确定性至关重要的中小规模应用。