该研究提出了一种基于知识图谱的网络模型,通过在少量训练数据的基础上进行信息传递和语义相关性分析,实现在大规模数据集上进行 few-shot 的学习,取得了较好的效果。
Nov, 2019
通过引入对比损失和学习算法,本研究提升了少样本分类任务中的细分子类别鉴别能力,实现了在嵌入空间中的潜在细粒度结构学习,并通过在标准小样本学习基准测试中的广泛试验验证了该方法的优越性。
Jul, 2021
该研究提出了一种基于卷积神经网络和注意力机制的少样本视觉学习系统,旨在实现在测试时只使用少量训练数据就能有效地学习新类别,同时不会忘记原先基础类别的模型。经过在 Mini-ImageNet 数据集的测试,该模型在 1-shot 和 5-shot 设置下都取得了 56.20% 和 73.00% 的最优成绩。
Apr, 2018
本文提出了一种基于少量样本和元学习的物体检测方法,使用原型知识转移和基于图的显式先验知识,验证了该方法在 PASCAL VOC 数据集上的有效性。
Aug, 2020
本文研究了如何通过增大少样本学习中的类内方差,以提高图像的分类效果,通过变分推断的方式将类内方差分布从基本集合转移到新集合中。实验结果表明,在具有挑战性的细粒度少样本图像分类基准上,该方法在状态 - of-the-art 的方法上有明显提升。
Oct, 2020
本文主要研究了基于简单特征变换的最近邻分类器在 few-shot 学习上的精度,并发现在 miniImageNet 数据集中,使用平均值减法和 L2 归一化的最近邻分类器在三个设置上优于之前的结果。
本论文提出了多层神经网络结构来实现少样本图像识别任务,其中包括特征提取和分类两个阶段,采用 Mahalanobis 距离计算平均类别特征和测试样本的距离,并通过学习映射将样本原型映射到对应类别的原型上,该网络在四个标准的少样本图像识别数据集上表现出优越的性能。
Dec, 2019
本文提出了一种基于深度卷积神经网络的少样本目标检测方法,通过元特征学习与重新加权模块,快速适应新的物体分类。实验证明该模型在多个数据集和设置上均能显著优于现有少样本检测模型。
Dec, 2018
本文提出了一种名为 Simple CNAPS 的新型神经网络架构,采用 Mahalanobis 距离作为距离衡量标准并学习适应性特征提取器,从而在标准 few-shot 图像分类基准数据集上实现了 6.1% 的性能提升。
该研究提出了一种新的适用于 few-shot classification 的方法,使用伪标签技术结合蒸馏损失和标准交叉熵损失来解决小数据集的问题,并取得了比现有的算法更好的效果。
Dec, 2021