关于带边特征的图注意力分类阈值
本研究提出 Causal Attention Learning (CAL) 策略,利用因果推断来处理图分类过程中存在的 confounding effect of shortcuts,该方法借助注意力模块估计因果特征和快捷特征,并对因果理论进行参数化背门调整。实验结果表明,CAL 策略在合成和真实数据集上均取得了良好的效果。
Dec, 2021
该论文提出了一种基于 L0 正则化的 Sparse Graph Attention Networks,可以对大规模、复杂的图进行特征聚合,鲁棒性与有效性更高,达到与原始图相同或更高的预测性能;同时,其使用结果可视化和量化表达,让人更加容易理解。
Dec, 2019
本文提出了一种基于信息瓶颈原理的图随机注意力方式,用于解释学习过程中选择任务相关亚图,并保证这些亚图中不包含与任务不相关的模式,并在 8 个数据集上进行了广泛的实验,结果表明该方法比现有方法在解释和预测准确度上都有更好的表现。
Jan, 2022
该研究介绍了图卷积注意力层(CAT)和 GNN 架构(L-CAT),旨在充分利用两种方法的优势并自动插值 GCN,GAT 和 CAT。研究结果表明,在一系列数据集中,L-CAT 能够有效地组合不同的 GNN 层,优于竞争方法,从而减少了交叉验证的需求。
Nov, 2022
本文提出了一个处理节点内容嘈杂且稀疏的特征关注图卷积学习框架,采用长短期记忆网络学习每个节点的密集表示,引入特征 - 注意机制,允许相邻节点学习和变化特征重要性,并使用基于谱的图卷积聚合过程,该方法在不同噪声水平下表现出优于现有方法的性能。
Dec, 2019
该论文提出了一种基于边注意力的多关系图卷积网络 (EAGCN) 模型,可用于多个化学数据集中学习化合物的属性,通过设计边注意力字典以及在不同分子中查找该字典以形成每个分子的注意力矩阵,进而实现对不同分子大小的聚合节点特征预测的独立性。
Feb, 2018
我们扩展了上下文图马尔可夫模型,采用深度且概率的机器学习模型来建模边特征的分布。我们在架构上进行了改进,将边特征映射成离散状态的贝叶斯网络,并用于原始模型。通过这样做,即使在没有边特征的情况下,我们也能构建更丰富的图表示,通过在标准图分类基准测试中的性能改进得到了证实。此外,在边特征至关重要的图回归场景中成功测试了我们的提议,我们展示了所学到的边表示在三个链接预测任务上相对于原始模型的重大性能改进。由于计算复杂度与边数量线性相关,该提议的模型适用于大规模图处理。
Aug, 2023
本文提出一种使用注意力机制的图神经网络,通过去除中间的全连接层,并结合图结构实现对邻域的动态自适应的总结,从而达到降低参数数量,提高半监督学习效果的目的。
Mar, 2018
本文研究了如何将更丰富的结构分布用于深度神经网络中的嵌入式分类推理,通过两种不同的结构注意力网络:线性链条件随机场和基于图形的解析模型的实验,展示了这些结构的注意力网络超过了基线的注意力模型在各种合成和真实任务中的表现。
Feb, 2017