TCL: 基于 Transformer 动态图对比学习建模
提出了一种新颖的 Temporal Graph representation learning with Adaptive augmentation Contrastive (TGAC) 模型,该模型通过将先验知识与时间信息相结合,对时态图进行自适应增强,并通过定义增强之间的相互视角对比和内部视角对比来构建对比目标函数,以减少网络中的噪声。广泛的实验证明,该模型优于其他时态图表示学习方法。
Nov, 2023
本文提出了一种基于张量图卷积网络的动态图表示学习模型,通过在张量乘积的基础上设计张量图卷积网络来同时建模时空特征,实验结果表明我们的模型获得了最先进的性能。
Jan, 2024
提出了一种名为 TCGL 的自监督学习方法,通过建立图模型来学习视频的时序表示,利用 “片段内” 和 “片段间” 的时间依赖作为时序表示学习的自监督信号,在大规模行动识别和视频检索基准测试中展示了显著的性能优势。
Jan, 2021
图对比学习在图神经网络的强大优势下充分利用丰富的无标签信息来学习图的特征表示,然而现有的方法忽视了高阶图子结构的重要潜在信息,本研究通过引入拓扑不变性和扩展持久性的概念来解决这个限制,提出了一种新的对比学习模式并引入了扩展持久性景观,实验结果表明 TopoGCL 模型在无监督图分类中取得了显著的性能提升。
Jun, 2024
本文提出一种新的算法 —— 动态图形学习,旨在在动态图形中共同学习图形信息和时间信息,并利用梯度元学习来学习更新策略,在快照上具有比 RNN 更好的泛化能力,能够训练任何基于消息传递的图神经网络以增强表示能力。
Nov, 2021
提出了一种结合 GNN 和 Transformer 的新框架,利用 GNN 的局部信息汇聚和 Transformer 的全局信息建模能力解决过度平滑问题,构建了 GTC 体系结构,通过对跨视图信息进行自我监督的对比学习任务实现异构图形表示学习。
Mar, 2024
基于连续时间的表示学习模型 (CONTINUOUS-TIME REPRESENTATION LEARNING, CTRL) 在时态异构信息网络 (HINs) 上进行归纳表征学习。通过综合三个部分,即异构注意力单元、基于边缘的 Hawkes 过程和动态中心性,CTRL 模型能够保留异构节点特征和时间结构,以捕捉高阶网络结构的演化。实验结果表明,我们的模型在三个基准数据集上显著提升性能,超越各种最先进方法,模型设计的有效性得以证明。
May, 2024
本研究提出了一种时域监督对比学习的方法,可以使神经网络在处理时间序列信息时具备低延迟和高性能,取得了 CIFAR-10、CIFAR-100 和 DVS-CIFAR10 等数据集的最新性能水平。
May, 2023