连续图学习领域的系统综述,对连续图学习算法的任务设置、模型设计和应用进行分类和比较,分析其与传统连续学习技术的适用性以及存在的挑战和未来方向。
Feb, 2024
综述连续图学习的最新研究进展,从解决灾难性遗忘的角度提出连续图学习的分类方法,探讨在连续改进中应用这些方法所面临的挑战和可能的解决方案,并讨论了对连续图学习发展的开放问题和未来方向以及其对连续性性能改善的影响。
连续图学习研究了从无限的图数据流中学习的问题,将历史知识整合并推广到未来的任务。在当前只有当前的图数据可用。本文提出了一种关系感知自适应模型,并说明了图边缘后面的潜在关系可以被归因为不变因素。通过实验证明,该模型在 CitationNet、OGBN-arxiv 和 TWITCH 数据集上相对于现有方法分别提高了 2.2%、6.9% 和 6.6% 的准确度。
Aug, 2023
本文提出了一种适应性动态规划的视角来处理图形的 Continual learning 问题,建立起一种学习新任务和记忆以前学习任务之间的两人博弈模型,并且通过在多个图形基准下的综合消融研究证明了其表现的最先进性。
May, 2023
我们提出了一种针对图学习中的灾难性遗忘问题的方法,在数据从一个图分布过渡到另一个图分布时,通过维持图的局部和全局结构一致性的排练机制来保持对过去任务的知识,并在实际图数据集中与各种持续学习基线进行了性能评测,取得了平均性能和任务遗忘方面的显著改进。
本文综述了图学习的应用和限制,介绍了无法应用于动态图形的图学习方法以及近年来不断受到研究关注的图生命周期学习方法的分类、潜在应用和未解决的研究问题。
Feb, 2022
本论文提出了一种结构学习策略和参数学习策略相结合的图像持续学习方法,并采用强化学习驱动结构学习策略,Dark Experience 回放的概念来应对灾难性遗忘问题。在图持续学习基准问题中得到了验证,并在两个设置中都表现出比最近发布的作品更好的性能。
Sep, 2022
连续学习是一个研究领域,旨在构建能够在不重新训练的情况下连续积累不同任务知识的机器学习模型。本文提出了第一个用于时空图的连续图学习基准,并将其用于评估在这一新领域中著名的连续图学习方法。通过标准性能指标的基准测试,我们研究了连续图学习方法的类和任务顺序敏感性,以及带有不同宽度和深度的骨干 GNN 架构的连续图学习方法的架构敏感性。我们发现,任务顺序稳健的方法仍可能对类别顺序敏感,并观察到与先前经验观察相矛盾的结果,这些观察促使我们对连续学习的架构敏感性产生了新的认识。
Jan, 2024
研究提出了一种基于分解的连续图表示学习框架 (DiCGRL),可以有效地减轻连续学习中的灾难性遗忘问题并超越现有的连续学习模型。
Oct, 2020
连续图学习(CGL)旨在用以流式传入的图数据不断更新图模型。本论文提出了一种名为 “Condense and Train (CaT)” 的框架来解决 CGL 中存在的数据不平衡和历史分布近似问题,通过对新来的图进行精简并将其存入 “Condensed Graph Memory” 中,最终通过 “Training in Memory” 方案来直接更新模型。在四个基准数据集上进行的广泛实验成功证明了所提出的 CaT 框架在效果和效率上的优越性。
Sep, 2023