少样本学习的混合图神经网络
本文提出了一种基于 Graph Neural Networks 和 graph few-shot learning 算法的半监督节点分类方法,通过传递先前学习的辅助图中的结构知识来改进目标图上的分类精度,并在四个真实世界图数据集上的实验和消融研究中证明了该模型的有效性。
Oct, 2019
本文提出一种基于图卷积的全局原型网络(GcGPN)的图形框架,该框架显式地模拟了联合标签空间中所有已看到和新类别之间的关系,以在全局一致的方式下将新类别嵌入到以前看到的所有类别的现有空间中,为广义小样本学习(GFSL)中的快速适应和全局区分提供了解决方案。
Jul, 2019
提出了一种新的基于元学习的图分类模型 Meta-GNN,能够在非欧几里得领域解决节点分类问题,并在多个基准数据集上实现了较大幅度的性能改进和任务适应能力的提高。
May, 2019
本文提出了一种新的边缘标记图神经网络(EGNN),在这种网络中,改进了少样本学习和显式聚类,通过直接利用内部聚集相似性和集群间不相似性的迭代边缘标记更新,我们学习预测边缘标签,而不是节点标签,使训练后的模型能够解决各种数量的类别问题,并能很容易地扩展到执行传导式推理。EGNN 模型的参数通过周期性训练和标记损失来学习,从而得到一个适用于未见数据问题的泛化能力良好的模型,在两个基准数据集上的监督和半监督少样本图像分类任务中,EGNN 显著提高了现有 GNN 方法的性能。
May, 2019
为解决图神经网络 (Graph Neural Networks) 在 few-shot 节点分类任务中标注样本不足的情况,本文提出了一种基于元学习的方法 Task-Equivariant Graph few-shot learning (TEG),通过学习可转移的任务自适应策略,使用更少的训练元任务达到了最先进的分类性能。
May, 2023
本文提出了一种基于原型标签传播的图构建方法,并对小图片网络、分层图片网络、CIFAR-FS 和 CUB 数据集进行了实验,展示了该方法在转导式 FSL 和半监督 FSL 方面优于其他最先进的方法。
Apr, 2023
提出了一种称为少样本少样本学习(Few-Shot Few-Shot Learning,FSFSL)的新型低数据训练设置,应用图卷积网络(GCN)和适应性聚合机制来解决原始和网络图像的有噪声和不相关图片的问题,以用于小样本学习任务。
Feb, 2020
跨异构图少样本学习中,提出了一种新模型 CGFL,利用 MHGN 和得分模块来有效地捕捉异构信息、测量标记样本的信息量并确定每个源异构图的可转移性,从而在少样本数据中传递广义知识以预测新类别。通过对四个真实世界数据集的广泛实验,证明了 CGFL 相对于现有方法的卓越性能。
Aug, 2023
本研究提出了一种新型的注意力图神经网络 (Attentive GNN),该网络通过三重注意力机制(节点自注意力、邻域注意力、层记忆注意力)处理 GNN 深度学习中存在的过拟合和过度平滑问题,从而最终提升了其在小样本学习任务上的性能表现。实验证明,相比于其他现有的 GNN 和 CNN 方法,在深度神经网络骨架 (ConvNet-4 和 ResNet) 和归纳、传导方式下,在 mini-ImageNet 和 tiered-ImageNet 数据集上,该新型图神经网络取得了令人满意的结果。
Jul, 2020