基于原型随机游走的半监督少样本学习
本文提出了一种基于聚类的半监督少样本分类方法,使用 Prototypical Networks 提取特征并结合 K-means 聚类算法,利用少量标记样本指导聚类过程,而用户反馈可以显著改善适应性能。通过图像数据的实验,证明了该策略的良好性能。
Nov, 2017
ProtoFSSL 是一种新颖的基于原型网络的半监督 FL 方法,它通过轻量级原型实现客户端之间的知识共享,减少了通信和计算成本,并在多个数据集上实现了更高的准确性。
May, 2022
提出了一种 Few-shot guided Prototypical (FoPro) 表示学习方法来从网络数据中进行有监督学习,并促进实现真实世界中的性能提升。该方法使用少量实际的标记示例,缩小了网络实例与 “现实” 原型之间的内部距离,并使用可学习的指标测量了图像 - 原型之间的距离。在实验中,FoPro 在网络数据集上进行训练并在现实世界数据集上进行指导和评估,取得了两个大型数据集三个细粒度数据集的最先进性能。与现有的 WSL 方法相比,FoPro 在同样的 Few-shot 设置下仍然在真实世界的推广方面表现优异。
Dec, 2022
本文提出一种 Poisson Transfer Network 方法来解决半监督 few-shot 学习的问题,通过 Poisson Merriman Bence Osher (MBO) 模型和对比学习来挖掘未标记数据,并且扩展了嵌入泛化度量,以提高模型性能。
Dec, 2020
本文介绍一种基于原型传播网络 (PPN) 的元学习方法来改善少样本分类任务的性能,该方法可以使用粗标签进行弱监督,通过原型在类别图上的传播来学习注意机制以实现不同少样本任务上的高准确率。
May, 2019
本文介绍了一种简单却有效的 Convolutional Random Walk Network(RWN)用于解决 FCN 中存在的问题,通过 Pixelwise Affinity 和语义分割共同优化这两个目标,通过新型随机游走层组合这两个目标,从而在深层网络中实现一致的空间分组。与传统的 FCN 相比,我们的实现仅需要 131 个额外的参数,却在语义分割和场景标记方面始终保持着优势。
May, 2016
本文提出了一种自监督的原型传递学习方法 ProtoTransfer,旨在通过构建一个可以将未标记的样本和它们的增强聚类在一起的度量嵌入来预测少量标记数据的正确类别。我们在 mini-ImageNet 数据集上的少量样本分类任务中通过 ProtoTransfer 方法超越了最先进的无监督元学习方法。在存在领域偏移的少样本实验中,我们的方法甚至具有可比拟于监督方法的性能,但需要 orders of magnitude 较少的标签。
Jun, 2020
本文提出了一种新的 few-shot 分割框架,基于原型表示,并将整体类表示分解为一组部分感知原型,能够捕捉多样化和细粒度的物体特征。通过利用无标签数据丰富我们的部分感知原型,提高语义对象的内部变化建模。通过在两个基准测试上进行广泛的实验评估,表明我们的方法优于以前的方法。
Jul, 2020
本文介绍了一种新的针对单一类别训练原型 few-shot 模型的方法,引入了一个以零为中心的 “空类” 并通过批量标准化实现中心化,同时提出了一个用于距离计算的新的高斯层次,该层次考虑了支撑示例的分布而不仅是它们的质心,在 Omniglot 数据集上得到了.98 的分类准确率,在 MiniImageNet 数据集上的测试准确率为.8。
Jun, 2019
本文提出一种少样本学习方法,即使用原型网络从小样本中抽象出原型,将其映射到一个度量空间中,比较测试样本和原型之间的距离来进行分类,同时还将其拓展到零样本学习,取得了最先进的结果。
Mar, 2017