局部子图的图元学习
本文介绍了一种名为超曲线图元学习器(H-GRAM)的新方法,通过从节点的局部子图中学习可传递的归纳偏见和集合超曲线元梯度,实现在处理不相关子图的查询任务上进行更快的学习,并展示了其在多种挑战性的少样本设置中学习和传递信息的有效性,并且相较于传统的欧几里得方法,在大型图数据集上能够更好地提高性能。
Oct, 2023
本文提出了一种基于元学习的 Meta-Graph 框架,该框架使用高阶梯度以及一个条件生成图神经网络初始化的学习图签名函数,可以在少量训练数据的情况下快速适应新图,并在收敛时获得更好的结果。
Dec, 2019
本文介绍了一种名为 MI-GNN 的基于元学习范式的元 + 归纳框架,以定制归纳模型以适应每个图表的方法。 MI-GNN 在图和任务级别上都采用双适应机制,对来自同一领域内不同的图表进行自适应,提高了半监督节点分类的性能。
May, 2021
本文研究了一种新的少样本图异常检测方法 MetaGAD,通过学习元知识来转移未标注节点和标注节点之间的信息以检测带有有限标注标记的异常。在六个真实世界的数据集上进行实验,证明该方法在少量标注样本中检测出异常。
May, 2023
提出了一种新的基于元学习的图分类模型 Meta-GNN,能够在非欧几里得领域解决节点分类问题,并在多个基准数据集上实现了较大幅度的性能改进和任务适应能力的提高。
May, 2019
本文提出了一个基于元学习的主动学习方法 MetAL,通过利用 meta-gradients 来模拟模型训练效果,并且在多种不同领域的数据集上取得了比现有算法更好的结果。
Jul, 2020
本文提出了一种新的元学习策略,能够生成可用于多个任务的多任务节点嵌入,并在多个任务上表现出比传统模型更高甚至可比的性能。该方法可以避免同时执行多个任务时出现的困难,是模型不可知和任务不可知的,适用于各种多任务领域。
Dec, 2020
本文介绍了一种新的元学习方法 Meta Networks(MetaNet),它通过快速参数化学习跨任务的元级知识,并在新概念上进行快速泛化,同时保持了以前所学的性能表现,在 Omniglot 和 Mini-ImageNet 基准测试中,我们的 MetaNet 模型实现了接近人类水平的表现,并在准确性上优于基线方法高达 6%。我们展示了 MetaNet 的几个有吸引力的性质,如泛化和持续学习。
Mar, 2017
本文提出了一种基于元路径的自监督辅助学习方法来学习异构图上的图神经网络,通过预测元路径作为辅助任务来进行主任务的学习,可以自动平衡辅助任务的有效组合以提高主任务性能,实验证明该方法可以在异构图上改进链接预测和节点分类的性能。
Jul, 2020