图形对比学习自动化
本研究提出了一种图形比较学习 (GraphCL) 框架,通过图形增强等多种方式对图形数据进行无监督学习来学习表示。结果表明,即使不使用复杂的 GNN 架构,GraphCL 框架也可以生成类似或更好的通用性、可转移性和鲁棒性的图形表示。
Oct, 2020
本文提出了一种新的自适应增强方法,通过设计基于节点中心性和节点属性的增强策略来保留图的内在结构和属性信息,并验证此方法在节点分类任务中优于现有方法和监督学习模型。
Oct, 2020
提出了一种名为 GraphAug 的原则性框架,该框架引入了一个强大的数据增强器,生成去噪的自监督信号,增强推荐系统的性能。该框架通过自适应地调整对比视图生成,自动地提炼信息丰富的自监督信息。通过对真实数据集的严格实验评估,得出 GraphAug 模型相对于现有基线方法的卓越性能。
Mar, 2024
该论文介绍了使用对比学习(CL)进行无监督图表示学习的方法。作者通过探究使用域不可知图形扩充的高性能图像对比学习和 DAGAs 对图形对比学习的影响,提出了几个检查机制和设计任务感知扩充的策略,以提高模型的准确性。
Nov, 2021
本文提出了一种基于对抗性图增强策略的自监督学习框架 adversarial-GCL,解决了传统图对比学习方法捕获冗余图特征的问题,实验证明该方法在无监督、迁移和半监督学习任务中均可达到较好的性能。
Jun, 2021
本研究利用自监督学习的方法,在图形学习中,通过数据生成学习可学习的连续先验,并利用信息最小化和信息瓶颈原则对学习的先验进行规范化,用于构建双层优化框架,并在小规模和大规模图表上展示了比同类方法更好的学习效果。
Jan, 2022
本文提出了一种名为 Graph Contrastive Learning(GraphCL)的一般框架,以自我监督的方式学习节点表示,通过最大化同一节点的本地子图的内在特征和连接结构的两个随机扰动版本的表示之间的相似性来学习节点嵌入,并使用对比学习损失来最大化它们之间的一致性,证明我们的方法在节点分类基准测试中显着优于无监督学习的现有技术。
Jul, 2020
提出了一种名为 CTAug 的新的统一框架,将图的同质子图概念整合进不同的图对比学习机制中,以提高图的表示学习性能。实验证明,CTAug 在图表示学习方面具有领先的性能,特别是对于度较高的图。
Jan, 2024
本研究揭示了对比学习的推荐模型是通过学习更均匀分布的用户 / 物品表示隐含地减轻受欢迎程度偏见,并且建议一种可以平滑调整所学表示的均匀性的简单 CL 方法。
Dec, 2021