我们的研究提出了一个不确定性估计框架,可应用于任何泛化图神经网络(GNN)的基础网络上,以提高节点分类性能。该不确定性估计器模型是一个神经网络,将不确定性建模为概率分布而非离散的概率标量值。通过在 $n$ 路 $k$ 样本方式下进行训练,我们的方法在少样本学习设置中提高了分类准确率,而无需特定的元学习架构。在多个数据集和不同 GNN 基础网络上进行的实验证明了不确定性估计器对于带有 GNN 的少样本节点分类的有效性。
Jun, 2024
通过利用高斯分布对有限数据进行建模,我们提出了一种新颖的不确定性感知少样本知识图完成框架(UFKGC),该框架能更好地理解有限数据并提高鲁棒性,实验证明与竞争对手相比,在两个基准数据集上取得了出色的性能。
Mar, 2024
本论文提出了多层神经网络结构来实现少样本图像识别任务,其中包括特征提取和分类两个阶段,采用 Mahalanobis 距离计算平均类别特征和测试样本的距离,并通过学习映射将样本原型映射到对应类别的原型上,该网络在四个标准的少样本图像识别数据集上表现出优越的性能。
Dec, 2019
本文提出了一种基于内部语义关系的交互心理测量学方法,旨在解决少样本图像分类问题中标签监督性与复杂概念关系不兼容的挑战性场景,实验结果表明我们的方法在 CIFAR-100 数据集上有很好的表现以及优越性。
Dec, 2021
本论文提出了一个基于元学习的方法用于 few-shot 目标检测,通过使用两种类型的注意机制对查询和支持特征图进行聚合以提高性能并最大化支持数据的多样性。
Sep, 2021
提出了一种新的神经网络结构,利用基于目标图像的条件来学习高质量的类别表示,采用动态学习方式进行类别之间的对比,对 Caltech-UCSD 鸟类细粒度分类任务取得了最先进的性能。
Feb, 2018
本文提出了一种基于高斯模型的特征分布参数估计方法,通过估计类间条件密度之间的距离实现对于少样本分类任务中泛化误差的预测,并在实验中表明该方法优于 leave-one-out cross-validation 等传统方法。
Dec, 2022
本文提出了一种名为 Simple CNAPS 的新型神经网络架构,采用 Mahalanobis 距离作为距离衡量标准并学习适应性特征提取器,从而在标准 few-shot 图像分类基准数据集上实现了 6.1% 的性能提升。
提出了两种不同的损失函数 ——Proto-Triplet Loss 和 ICNN loss,其中考虑了嵌入向量的重要性,并评估了训练后网络获得的嵌入的质量。在实验中,相比其他度量法,这些损失函数在 miniImagenNet 基准测试中将准确率显著提高了 2%,表明这些损失函数有能力使网络更好地推广到以前未见过的类别。
May, 2023
本文介绍了一种新的针对单一类别训练原型 few-shot 模型的方法,引入了一个以零为中心的 “空类” 并通过批量标准化实现中心化,同时提出了一个用于距离计算的新的高斯层次,该层次考虑了支撑示例的分布而不仅是它们的质心,在 Omniglot 数据集上得到了.98 的分类准确率,在 MiniImageNet 数据集上的测试准确率为.8。
Jun, 2019