Sep, 2023

CaT:带有图压缩的平衡渐进式图学习

TL;DR连续图学习(CGL)旨在用以流式传入的图数据不断更新图模型。本论文提出了一种名为“Condense and Train (CaT)”的框架来解决CGL中存在的数据不平衡和历史分布近似问题,通过对新来的图进行精简并将其存入“Condensed Graph Memory”中,最终通过“Training in Memory”方案来直接更新模型。在四个基准数据集上进行的广泛实验成功证明了所提出的CaT框架在效果和效率上的优越性。