通过全局和局部关系交互进行欺诈检测
欺诈检测在发现欺诈者通过欺骗其他用户,例如发布虚假评论或进行异常交易的行为上有着重要作用。我们采用图神经网络和动态关系注意力聚合机制来解决这个问题,并在真实基准数据集上展示了我们的方法 DRAG 优于其他最先进的欺诈检测方法。
Oct, 2023
该论文提出了一种新颖的 transformer 模型,用于场景图生成和关系预测,利用编码器 - 解码器架构和节点和边的丰富特征嵌入,通过自我注意力和交叉注意力模拟节点之间和边与节点之间的交互,并引入适用于处理解码器中的边的新的位置嵌入。
Apr, 2020
本文提出了一种名为 STA-GT 的异构图神经网络,通过引入一种时间编码和转换器模块,来捕获时间依赖性、识别欺诈性交易和促进时空信息建模,具有改进的表现能力。在两个金融数据集上进行的实验证明了该方法在交易欺诈检测任务上的有效性。
Jul, 2023
本研究提出了一种新的图形 Transformer 架构,称为 Anchor Graph Transformer(AGFormer),通过利用锚图模型将节点到节点的消息传递转换为锚到锚和锚到节点的消息传递过程,从而比常规节点到节点的 Transformer 更高效且更具鲁棒性。
May, 2023
该研究提出了一种基于图神经网络和潜在空间的方法,以降低图的复杂度从而实现对视觉特征的非局部关联表示,并在三项主要的视觉识别任务上展示了其具有较高的性能和较低的计算成本。
May, 2019
本文提出了一种自动估计表格数据特征间关系的图估算器,根据所建立的关系图组织各独立特征并实现节点间的有序交互,进而进行表格学习。结合该方法,我们提出了一种基于 Transformer 网络的 T2G-Former,能够在不同层次上收集 T2G-Former 中的显著特征并加以综合,实现对表格数据进行有效处理和预测,进而取得了优异的表现。
Nov, 2022
我们提出了一个新的模型无关的图神经网络(MaGNet)框架,能够顺序地集成不同顺序的信息,从高阶邻居中提取知识,并通过识别有影响力的紧凑图结构来提供有意义、可解释的结果。理论上,我们通过经验 Rademacher 复杂性建立了 MaGNet 的泛化误差界,并展示了它在表示逐层邻域混合方面的能力。使用模拟数据进行了全面的数值研究,证明了 MaGNet 相对于几种最先进的替代方法的卓越性能。此外,我们将 MaGNet 应用于一个从脑活动数据中提取关键信息的实际案例研究,从而突显了它在推动科学研究方面的有效性。
Sep, 2023
在这篇论文中,我们提出了一种名为 TransGNN 的新模型,其中 Transformer 层和 GNN 层交替使用以相互改进。我们利用 Transformer 来聚合更相关的节点信息以改善 GNNs 的消息传递,并利用位置编码和 GNN 层将图结构融入节点属性中,改善 Transformer 在图数据中的表现。通过理论证明,我们证明了 TransGNN 相对于仅具有额外线性复杂度的 GNNs 更具表达力。在八个数据集上的实验证实了 TransGNN 在节点和图分类任务上的有效性。
Aug, 2023
本文介绍了一种基于 Transformer 的 GNN 模型,叫做 UGformer,用于学习图表示。UGformer 有两个变体,第一个变体利用 Transformer 对每个输入节点的一组采样邻居进行编码,第二个变体利用 Transformer 对所有输入节点进行编码。实验结果表明,第一个变体在归纳和非监督转导设置下实现了基准数据集上的最新最准确统计,第二个变体在归纳文本分类中获得了最高准确率。
Sep, 2019