少样本学习的原型网络
本文介绍了一种新的针对单一类别训练原型 few-shot 模型的方法,引入了一个以零为中心的 “空类” 并通过批量标准化实现中心化,同时提出了一个用于距离计算的新的高斯层次,该层次考虑了支撑示例的分布而不仅是它们的质心,在 Omniglot 数据集上得到了.98 的分类准确率,在 MiniImageNet 数据集上的测试准确率为.8。
Jun, 2019
本文提出了一种基于聚类的半监督少样本分类方法,使用 Prototypical Networks 提取特征并结合 K-means 聚类算法,利用少量标记样本指导聚类过程,而用户反馈可以显著改善适应性能。通过图像数据的实验,证明了该策略的良好性能。
Nov, 2017
本文提出一种简单而有效的在转导设置中原型修正方法,利用标签传播减少内类偏差和特征转移减少交叉类偏差,理论分析证明了其合理性及其性能的下限,并在三个少样本基准测试中表明了其有效性。
Nov, 2019
本文提出了一种自监督的原型传递学习方法 ProtoTransfer,旨在通过构建一个可以将未标记的样本和它们的增强聚类在一起的度量嵌入来预测少量标记数据的正确类别。我们在 mini-ImageNet 数据集上的少量样本分类任务中通过 ProtoTransfer 方法超越了最先进的无监督元学习方法。在存在领域偏移的少样本实验中,我们的方法甚至具有可比拟于监督方法的性能,但需要 orders of magnitude 较少的标签。
Jun, 2020
使用视觉原型概念作为侧面信息,通过将深度网络的输入图像映射到原型嵌入空间,实现对交通标志和商标标志等数据集的图像识别性能的提升,并能够有效地应对零样本学习的情景,从而实现对已知和未知类的统一测试以及在这两个数据集上超越某些最新零样本学习方法。
Dec, 2015
本研究提出回归网络,用于解决少样本分类问题。该方法通过在类子空间中回归最近的近似点实现分类,使用回归误差作为距离度量,并将元学习引入到嵌入空间中。使用此简单归纳偏差的回归网络方法在有限数据情况下表现出色,特别是在能够用多个样本形成聚合类表示时。
May, 2019
本研究使用深度神经网络和度量学习的思想,建立了一种学习新概念的框架,从而不需要微调以适应新的类别类型,并在视觉和语言任务中定义了一次性学习问题,实验结果表明,在 Imagenet 数据集上,准确率从 87.6% 提高到 93.2%,在 Omniglot 数据集上,准确率从 88.0% 提高到 93.8%。
Jun, 2016
在 Few-shot learning 的背景下,该研究论文探索了如何使用大边距原则改进基于度量的 Few-shot learning 方法的泛化能力,通过在训练中将分类损失函数增加大边距距离损失函数,实现学习更有区分度的度量空间,实验证明这种方法可以有效提高现有模型的性能。
Jul, 2018
我们提出了一种利用 CLIP 等大规模视觉语言模型进行少样本学习的新框架 PROT0-CLIP。该框架通过图像原型和文本原型实现少样本学习,并通过对齐相应类别的图像和文本原型来提高分类效果。我们通过在少样本学习的基准数据集上以及在机器人感知领域的实际应用中进行实验证明了我们方法的有效性。
Jul, 2023