少样本学习的原型校正
本文提出一种少样本学习方法,即使用原型网络从小样本中抽象出原型,将其映射到一个度量空间中,比较测试样本和原型之间的距离来进行分类,同时还将其拓展到零样本学习,取得了最先进的结果。
Mar, 2017
本文介绍了一种新的针对单一类别训练原型 few-shot 模型的方法,引入了一个以零为中心的 “空类” 并通过批量标准化实现中心化,同时提出了一个用于距离计算的新的高斯层次,该层次考虑了支撑示例的分布而不仅是它们的质心,在 Omniglot 数据集上得到了.98 的分类准确率,在 MiniImageNet 数据集上的测试准确率为.8。
Jun, 2019
本文提出了一种名为 PrototypeFormer 的方法,通过探索原型关系,显著改进了传统的少样本图像分类方法。该方法采用变压器架构构建原型提取模块,旨在提取更具有区分性的类别表示,以用于少样本分类。此外,在模型训练过程中,提出了一种基于对比学习的优化方法,以优化少样本学习场景下的原型特征。通过在几个流行的少样本图像分类基准数据集上实验,证明了本方法优于所有当前最先进的方法,特别是在 miniImageNet 的 5-way 5-shot 和 5-way 1-shot 任务上分别达到 97.07%和 90.88%,超过最先进方法分别 7.27%和 8.72%的精度。代码将在之后发布。
Oct, 2023
本文提出了一种基于聚类的半监督少样本分类方法,使用 Prototypical Networks 提取特征并结合 K-means 聚类算法,利用少量标记样本指导聚类过程,而用户反馈可以显著改善适应性能。通过图像数据的实验,证明了该策略的良好性能。
Nov, 2017
使用视觉原型概念作为侧面信息,通过将深度网络的输入图像映射到原型嵌入空间,实现对交通标志和商标标志等数据集的图像识别性能的提升,并能够有效地应对零样本学习的情景,从而实现对已知和未知类的统一测试以及在这两个数据集上超越某些最新零样本学习方法。
Dec, 2015
本文提出了一种原型精炼网络(PRNet),通过自适应和融合获取新类别的代表性原型,从而增强了低数据量情况下的原型区分度,实现了少样本分割的挑战,实验结果表明该方法显著优于现有方法。
Feb, 2020
本研究提出了一种叫做 “IPRNet” 的方法,采用在原型空间中的原型关系来增强少样本数据在特征空间中的区分性,该方法在 Pascal-5i 和 COCO-20i 数据集上具有优秀的分割性能。
Nov, 2022
该论文提出了一种基于频谱滤波的框架来衡量稀有样本与原型之间的差异,并且使用 Tikhonov 正则化方法作为滤波器函数来进行少样本分类任务,实验结果显示该方法在不同数据集上都能达到最先进的性能水平。
Jul, 2022
本文提出了一种自监督的原型传递学习方法 ProtoTransfer,旨在通过构建一个可以将未标记的样本和它们的增强聚类在一起的度量嵌入来预测少量标记数据的正确类别。我们在 mini-ImageNet 数据集上的少量样本分类任务中通过 ProtoTransfer 方法超越了最先进的无监督元学习方法。在存在领域偏移的少样本实验中,我们的方法甚至具有可比拟于监督方法的性能,但需要 orders of magnitude 较少的标签。
Jun, 2020
本篇论文提出了 Shrinkage Exemplar Networks (SENet),结合 shrinkage estimator 和 shrinkage exemplar loss 等来平衡 原型表示(高偏差,低方差)和样本表示(低偏差,高方差),同时通过采用样本的嵌入进行谱滤波,以动态调整样本的差异性,从而让 SENet 更好地解决小样本分类问题。
May, 2023