通过使用附带注意力模块的神经门控自编码器模型,我们成功地解决了个性化推荐系统中的难题,例如数据稀疏性和异构性数据,实现了更好的推荐和可解释性结果。
Dec, 2018
本文提出新颖的神经网络结构图注意力网络(GATs),利用掩码的自我关注层处理图结构化数据的缺点,有效提出解决谱学派图神经网络中的几个关键挑战的方法,并在四个数据集上取得了最先进的结果。
Oct, 2017
本文研究了自监督自编码器在图数据中的表现问题,并提出一种新的自编码器模型用于图形表示学习,该模型包括分层自适应掩蔽机制和可训练的破坏机制,通过在十个基准数据集上的广泛实验,证明了所提出方法相对于现有的图表征学习模型其卓越性。
Jan, 2023
提出了一种基于 Transformer 的 GRAP-Aware Transformer(GRAT)神经网络模型,利用自注意机制自适应地处理整个图的编码和解码,经过多种实验验证,其在 QM9 数据集的分子属性预测等任务上表现出了领先水平。
Jun, 2020
本文提出了基于结构感知 (Transformers) 的新自注意力机制和子图表示方法,以提高图表示学习和预测的性能,相关模型在五个图预测基准测试中达到了最优结果。
Feb, 2022
该研究介绍了一种称为 GATE 的图形注意变压器编码器,利用自我关注机制来学习同时考虑不同句法距离下单词之间依赖关系的表示,在跨语言关系和事件提取任务中表现出优异的性能。
Oct, 2020
本文提出可变图自编码器 (VGAE) 框架,用于处理基于变分自编码器 (VAE) 的图结构数据无监督学习模型。该模型基于潜在变量,能够学习图的可解释的潜在表示。在引文网络的链接预测任务中,我们使用图卷积网络 (GCN) 编码器和内积解码器来展示该模型。与大多数现有的图结构数据和链接预测无监督学习模型相比,我们的模型可以自然地融入节点特征,从而在许多基准数据集上显著提高预测性能。
Nov, 2016
提出了一种名为注意力驱动图聚类网络(AGCN)的深度聚类方法,它利用异质性智能融合模块动态融合节点属性特征和拓扑图特征,并开发了一个分别针对不同层嵌入的多尺度特征进行自适应聚合的规模智能融合模块,通过联合学习特征和聚类分配,可以更加灵活有效地执行聚类任务。实验结果表明,该方法性能优于现有的深度聚类方法。
Aug, 2021
本研究提出了一种名为 GCN-SA 的新型图学习框架,它具有出色的节点级表示学习的泛化能力,并且通过自注意机制和改进的转换器块实现了对长程依赖关系的捕捉,从而使其能够在具有不同程度同质性的图上进行表示学习。
Mar, 2024
本文介绍了一种新型自动编码器,用于有向图的建模,该模型使用带参数图卷积网络 (GCN) 层作为编码器和不对称内积解码器,学习了一对可解释的节点潜在表征,并在几个流行的网络数据集中展示了该模型在有向链接预测任务上取得了优异的性能。