本文提出了一种名为 Graph Contrastive Learning(GraphCL)的一般框架,以自我监督的方式学习节点表示,通过最大化同一节点的本地子图的内在特征和连接结构的两个随机扰动版本的表示之间的相似性来学习节点嵌入,并使用对比学习损失来最大化它们之间的一致性,证明我们的方法在节点分类基准测试中显着优于无监督学习的现有技术。
Jul, 2020
本文提出了一种基于对比方法的无监督图表示学习框架,利用对节点进行的对比目标学习节点表示,包括结构和属性层面的图视图生成,实验证明本方法在各种真实世界数据集上的表现均优于现有最新技术方法,特别是在跨学科学习任务中,甚至超过监督方法,具有广泛的应用潜力。
Jun, 2020
我们通过广泛的实验验证了对比学习和元学习相结合的新模式 COLA 在少样本节点分类任务中的重要性,并证明 COLA 在所有任务上都取得了新的最先进水平。
Sep, 2023
基于对比学习方法的成功,该文提出一种用于图上对比解缩的框架,采用了解缩编码器和两个经过精心设计的自监管信号,并使用该框架在 3 个引文网络上进行节点分类任务,实验结果验证了该框架的有效性。
Jun, 2023
文章介绍了通过对比不同结构视图的图表达学习来实现自监督学习,相对于多视图或多尺度编码,通过对比一阶邻居和图扩散编码能够获得最佳表现。该方法在 8 个节点和图分类基准测试中取得了新的最佳结果,在 Cora(节点)和 Reddit-Binary(图)分类基准测试中,取得了 86.8%和 84.5%的准确性,在 4 个基准测试中优于有监督的基线。
用图对比学习的框架,我们提出了一种多节点中心子图对比表示学习方法,以自我监督的方式学习图中节点的表示,通过对中心节点的一系列节点中心区域子图进行精心设计,通过对同一节点的不同子图之间的互信息进行对比损失的最大化来实现。对各种真实世界数据集和不同下游任务的实验证明,我们的模型取得了最先进的结果。
Aug, 2023
通过最大化同一文本最小扰动嵌入之间的对齐,以及在更广泛的语料库中鼓励嵌入的均匀分布,基于对比学习的各种方法已被提出来从未标记的数据中学习文本表示。不同的是,我们提出最大化文本和其短语成分组成之间的对齐,考虑了此目标的多种实现方法,并详细阐述了每种情况下对表示的影响。语义文本相似性任务上的实验结果显示,与最先进的方法相当的基线改进。此外,本工作是第一个这样做而不需要额外网络参数或辅助训练目标的工作。
Jul, 2023
本研究提出了一种图形比较学习 (GraphCL) 框架,通过图形增强等多种方式对图形数据进行无监督学习来学习表示。结果表明,即使不使用复杂的 GNN 架构,GraphCL 框架也可以生成类似或更好的通用性、可转移性和鲁棒性的图形表示。
Oct, 2020
通过对多种对比方法的理论分析,本论文扩展了有关数据表达的对比学习的理论保证,并验证了这些发现在多个基准数据集上的实际有效性。
Nov, 2023
本文提出了一种新的自适应增强方法,通过设计基于节点中心性和节点属性的增强策略来保留图的内在结构和属性信息,并验证此方法在节点分类任务中优于现有方法和监督学习模型。