May, 2023

ConGraT:自监督对比预训练用于联合图和文本嵌入

TL;DR本文提出了 ConGraT (Contrastive Graph-Text Pretraining) 方法,一种在 parent graph 上联合学习文本和节点的表示的自监督方法。使用两个单独的编码器来处理节点和文本,通过批量对比学习目标进行训练,并扩展了训练目标以纳入节点相似性和匹配节点和文本的可信下一猜测。在多个数据集上进行的实验表明,在节点和文本分类以及链接预测等不同下游任务中,ConGraT 优于强基线模型。