跨视图图形一致性学习的不变图表示
本文从因果关系的角度研究了图对比学习(Graph Contrastive Learning),发现传统的图对比学习由于含有非因果信息而不能很好地学习不变表示。为了解决这个问题并促使当前的图对比学习方法学习更好的不变表示,我们提出了一种新的图对比学习方法,通过引入谱图增强来模拟对非因果因素的干预,并设计了不变性目标和独立性目标来更好地捕捉因果因素。实验结果表明我们的方法在节点分类任务上的有效性。
Jan, 2024
本文提出了一种名为双视角跨图对比学习(DC-GCL)的创新框架,通过增强正样本多样性和可靠性,提供了更多样化和可靠的训练输入,相较于传统的图对比学习方法,DC-GCL 能够在各种基准测试和任务中显著提高性能。
Jun, 2024
本文提出了一个名为 GCL-GE 的指标来衡量图对比学习 GCL 的一般化能力,并通过信息理论的角度理论上证明了一个互信息的上界。基于这个证明,我们设计了一个名为 InfoAdv 的 GCL 框架,该框架具有增强的一般化能力,在预训练任务适配和下游任务的一般化能力之间取得了平衡,并在各种基准测试中取得了最先进的性能。
Nov, 2022
图对比学习在图神经网络的强大优势下充分利用丰富的无标签信息来学习图的特征表示,然而现有的方法忽视了高阶图子结构的重要潜在信息,本研究通过引入拓扑不变性和扩展持久性的概念来解决这个限制,提出了一种新的对比学习模式并引入了扩展持久性景观,实验结果表明 TopoGCL 模型在无监督图分类中取得了显著的性能提升。
Jun, 2024
提出了一种新的无监督学习框架 RGCL,以图像实例判别的重点语义为目标,使用对抗的方式生成有机理的视图进行对比学习。在 MNIST-Superpixel 和 MUTAG 数据集上的实验结果表明,RGCL 具有较高的表现,有效地为后续任务的优化提供了强大的表示能力。
Jun, 2022
本文提出了一种名为 AutoGCL 的新型对比学习框架,该框架运用一组可学习的图视图生成器通过自动增强策略生成对比样本,提高了现有对比学习方法的构图灵活性和语义保留能力,同时实现了端到端的训练,经过大量实验证明相对于现有方法具有更好的性能和更加紧凑准确的对比样本。
Sep, 2021
通过同时调整图形和对比损失标签,我们提出了一种名为 ID-MixGCL 的模型来捕捉未标记的图形的细节表示,其改善了 Cora,IMDB-B 和 IMDB-M 数据集上图形和节点分类任务的表现。
Apr, 2023
使用不需要数据增强的图对比学习方法 iGCL 进行表征学习,其中设计了不变 - 可区分性损失(ID 损失)来学习不变和可区分的表征,并且实验结果表明 iGCL 在不同类型的数据集上优于其他基准模型,具有很好的泛化性和鲁棒性。
Oct, 2022
提出了一种名为 InfoGCL 的基于信息瓶颈原则的信息感知图对比学习框架,与最新的图像对比学习方法统一,在节点和图分类基准数据集上进行了实证验证,取得了显著的效果优于现有技术。
Oct, 2021