关键词graph representation learning
搜索结果 - 174
- AAAI半监督图表示学习与以人为中心的解释预测脂肪肝病
在临床环境中,尤其是在脂肪肝疾病的预测中,本研究探讨了在半监督学习框架内利用图表示学习的潜力,通过构建主题相似度图以从健康检查数据中识别风险模式。我们展示了各种图神经网络方法在这一背景下的有效性,即使只有有限的标记样本。我们的方法的核心是通 - LocalGCL:基于局部感知的图形对比学习
局部感知图对比学习 (LACL) 是一种自监督学习框架,通过基于掩膜的建模补充性地捕捉局部图信息,相对于纯粹的对比学习,有效解决了在应用于图数据时过于强调全局模式而忽略局部结构的问题。实验结果验证了 LACL 方法优于当前最先进方法,展示了 - 拓扑深度学习的挑战与机遇
拓扑深度学习是一个快速发展的领域,它使用拓扑特征来理解和设计深度学习模型。本文认为,通过整合拓扑概念,拓扑深度学习可以作为补充图表示学习和几何深度学习的自然选择,并且可以在各种机器学习场景中提供实用的益处和理论基础,并讨论了拓扑深度学习中的 - ExGRG: 显式生成关系图用于自监督表示学习
自我监督学习已成为一种强大的技术,通过利用未标记数据中的嵌入信号而不依赖昂贵的注释标签来预训练深度学习模型。本文介绍了一种新的非对比自我监督学习方法,以显式生成组合关系图(ExGRG)来克服图结构数据的语义改变和反直觉性增强的挑战,并展示其 - 图表示的可证明隐私漏洞
通过对余弦相似度为基础的边重建攻击(COSERA)进行理论和实证研究,本文揭示了图神经模型中结构性漏洞的存在,这些漏洞导致了敏感拓扑信息的推测,同时还探讨了通过噪声聚合机制(NAG)生成的(可证明的)私有图表示对 COSERA 攻击的弹性, - EXGC:在图压缩方面实现高效和可解释性的桥梁
在本研究中,我们提出了一种高效且可解释的图压缩方法 EXGC,它通过采用 Mean-Field 变分逼近和梯度信息瓶颈目标来解决当前范式存在的效率和冗余性问题,在增加可解释性的同时显著提升了效率。我们在八个数据集上进行了全面评估,证明了 E - 大规模语言模型推动图表示学习的进展:技术综述
利用大型语言模型和图表示学的集成标志着复杂数据结构分析的重大进展,通过利用 LLM 的先进语言能力来改善图模型的上下文理解和适应性,从而拓宽了 GRL 的范围和潜力。本研究通过提出一种新颖的分类法,深入分析了 LLM 与 GRL 之间的核心 - 图值 $K$ 个文字:使用纯 Transformer 对图进行欧几里得化
我们引入了 GraphsGPT,该模型具有将非欧几里德图转换为学习可表示为欧几里德空间中可学习图词的 Graph2Seq 编码器以及从图词重构原始图以确保信息等价性的 GraphGPT 解码器。我们对 1 亿个分子进行预训练,得出了一些有趣 - L2G2G:基于图自编码器的可扩展的本地到全局网络嵌入
通过动态同步潜在节点表征并利用局部嵌入所提出的 L2G2G 方法,提高了 GAE 的准确性并保持可扩展性,表现优于标准的 Local2Global 方法,并在大型数据集上实现高效可扩展性。
- 图中的少样本学习:从元学习到预训练和提示
综合分析了最近的 Graph 表示学习的发展情况,并提供了比较和未来方向,将现有研究系统分类为元学习方法、预训练方法和混合方法,并比较它们的优势和局限性,为 Few-shot 学习在图上的未来方向提供了引导。
- 图领域适应:挑战、进展与前景
图领域适应(Graph Domain Adaptation)是一种有效的跨图知识转移范式,该论文详细调查了图领域适应的研究现状、挑战、代表性工作以及展望,并提供了第一份图领域适应调查报告。
- 无位置编码的图形变换器
Eigenformer 通过一种新颖的对 Laplacian 谱意识的注意机制,在一些标准的图神经网络基准数据集上实现了与最先进的 MP-GNN 体系结构和 Graph Transformers 相当的性能,甚至在某些数据集上超越了最先进的 - 带有连通子图感知的图形对比学习
提出了一种名为 CTAug 的新的统一框架,将图的同质子图概念整合进不同的图对比学习机制中,以提高图的表示学习性能。实验证明,CTAug 在图表示学习方面具有领先的性能,特别是对于度较高的图。
- 能量的梯度流:实体对齐解码的通用高效方法
实体对齐(Entity alignment)是一种在多源知识图谱中集成的关键过程,我们提出了一种基于实体嵌入的新型、广义的、高效的解码方法,称为 Triple Feature Propagation(TFP),该方法通过最小化狄利克雷能量来 - 利用内模态和外模态图对比学习进行多模态情感识别的对抗表示
我们提出了一种新颖的对抗表示方法,采用内模态和跨模态图对比用于多模态情感识别,可显著提高情感识别准确率。
- PUMA:高效的连续图学习与图压缩
通过引入 PUMA CGL 框架,本文解决了 CaT 框架在处理流图时存在的遗忘问题和效率限制,并在四个数据集上展示了该方法在图表示学习中的卓越性能和高效性。
- 等同一致变分图自编码器用于多层图表示学习
本文提出了一种适用于多级任务无关图表示学习的同构一致 VGAE(IsoC-VGAE)方法,并通过在 VGAE 框架内维护高阶同构一致性的多跳邻域信息,对 GNN 节点嵌入进行重构,从而保持同构一致性。广泛的实验证明我们的模型在代表性的图学习 - 图表示学习中的社区偏倚放大理解
我们在图表示学习中发现了一种社区偏见放大现象,它指的是图表示学习在不同类别之间加剧了性能偏见。我们从新颖的光谱角度对该现象进行了深入的理论研究,发现社区之间的结构偏见导致了节点嵌入的局部收敛速度不同,这一现象导致了下游任务分类结果的偏见放大 - 高阶动态图表示学习与高效 Transformer 模型
通过在 Transformer 的注意力矩阵中编码高阶图结构,HOT 模型在图表示学习中的动态问题中提高了链接预测的准确性,同时通过设置层次结构在注意力矩阵上显著减少内存占用。与其他动态图表示学习方案相比,HOT 在 MOOC 数据集上实现 - HGCLIP:基于图表示的层次理解视觉 - 语言模型的探索
我们提出了一种将 CLIP 与图表示学习相结合以更深入地利用分层类结构的新框架(HGCLIP),通过将类层次结构构建成一个图,其中其节点代表每个类别的文本或图像特征,通过图编码器,文本特征结合了分层结构信息,而图像特征通过注意机制强调了从原