基于关系的自监督图学习
自我监督学习已成为一种强大的技术,通过利用未标记数据中的嵌入信号而不依赖昂贵的注释标签来预训练深度学习模型。本文介绍了一种新的非对比自我监督学习方法,以显式生成组合关系图(ExGRG)来克服图结构数据的语义改变和反直觉性增强的挑战,并展示其在图表示学习中的优越性。
Feb, 2024
该论文提出了一种新的跨图关系学习模型,将其建模为一个凸优化问题,通过使用标记和未标记元组进行传导学习,并提供了一个可扩展算法,保证了最优解,并且与输入图的规模成线性时间复杂度。
May, 2016
提出了一种新型的结构保持的图表示学习方法(SPGRL),通过构建特征图对原始图进行对比,在保留全局拓扑结构信息的同时最大化整幅图和特征嵌入的互信息,该方法在简单噪声扰动下表现优异,且针对半监督节点分类任务具有很高的性能。
Sep, 2022
通过预测输入的替代增强方式,Bootstrapped Graph Latents (BGRL) 提供了一种学习图表达的方法,仅使用简单增强即可同时解决负样本对比和昂贵成本问题,从而在几个基准测试中胜过或匹配之前的方法,并在内存成本方面实现了 2-10 倍的减少。
Feb, 2021
本文针对关系网络中的半监督学习问题提出了两种可扩展的方法,可以更好地处理链接多样性和分类异质性等图结构异质性,相比于现有算法,我们的方法在不需要先验知识的情况下提供更好的分类性能。
Dec, 2016
提出了一种名为 R$^2$FGC 的新颖自监督深度图聚类方法,它可以从全局和局部视角提取属性和结构级别的关系信息,并通过保持增加节点之间的一致关系和减少冗余关系来学习具有判别性的嵌入表示。实验证明,R$^2$FGC 在广泛使用的基准数据集上优于现有的基准方法。
Sep, 2023
该研究提出了一种统一的关系学习框架(GRL),该框架可以插入现有的链接预测模型中,能够增强现有的链接预测模型,使其对于不平衡的关系分布和学习未见关系具有不敏感性,并能够联接语义相似的关系。
Dec, 2020
我们开发了 SGR,这是第一个我们所知的以自监督方式学习图形表示的方法,它基于谱图分析,无缝结合了所有所需的理想属性,可用于大型图形集合,可促进自监督表示学习,并在不重新训练的情况下表现竞争优势。
Nov, 2018
本文提出了一种新的基于图形的自监督学习框架 AFGRL,能够为节点分类、聚类和相似性搜索等节点级任务提供更好的性能,而这种方法不需要设计复杂的数据增强技巧。
Dec, 2021
本文提出一种强化图表示学习模型鲁棒性的方法 - Robust Causal Graph Representation Learning(RCGRL),通过生成工具变量来消除图中干扰因素和混淆变量,同时保证了理论上的有效性,并在多个基准数据集上进行了实验,证明了该模型的预测性能和泛化能力均优于现有方法。
Aug, 2022