本文提出一种基于图卷积的全局原型网络(GcGPN)的图形框架,该框架显式地模拟了联合标签空间中所有已看到和新类别之间的关系,以在全局一致的方式下将新类别嵌入到以前看到的所有类别的现有空间中,为广义小样本学习(GFSL)中的快速适应和全局区分提供了解决方案。
Jul, 2019
本文提出了一种新的任务:约束的少样本学习(CFSL),介绍了一种基于 Cat2Vec 的 CFSL 方法,该方法使用类别对比损失,并受到模糊痕迹理论和原型理论等认知理论的启发。
Aug, 2022
本文提出了一种新的对比学习框架,将其无缝地整合到预训练阶段和元训练阶段,以提高少样本分类的性能,并使用交叉视图的情节训练机制进行最近的质心分类,并采用基于距离缩放的对比损失。
Sep, 2022
该研究提出了一种混合模型特征空间学习方法,即在网络训练过程中以在线形式同时训练特征提取器和混合模型参数,以实现富有、强健的特征表示,并通过实验证明了该方法的有效性及其在少样本学习领域的优越表现。
Nov, 2020
基于条件变分自编码器模型,使用语义嵌入生成视觉样本,通过训练生成具有代表性的样本来改善数据稀缺性问题,提升 few-shot 分类效果,实验结果表明我们提出的方法在 1-shot 和 5-shot 设置下在 miniImageNet 和 tieredImageNet 数据集上实现了最先进的性能。
May, 2022
本研究探讨在图模型中实施分类增量学习的挑战性实际问题,提出了基于伪增量学习和分层注意力的图元学习框架,通过这些设计实验得出了该模型在图模型中表现出更好的增量学习效果。
Dec, 2021
本文介绍了一种对称的对齐机制,用于学习从极少的例子中获取更广义的视觉概念的方法。实验结果表明,该方法是通用的,并提供了一个强大的基准。
Oct, 2022
这篇论文研究了在物体识别中应对长尾或无限制问题的方法,提出了一种名为 CASTLE 和 ACASTLE 的模型,可以同时识别常见类别并学习少量样本的新出现类别,且可以在多领域中应用。这两种模型在 MiniImageNet 和 TieredImageNet 数据集上的表现优于现有的 GFSL 和强基准方法,且实验结果表明在标准的几种情况下,这两种方法的表现均优于以前的 最新方法。
Jun, 2019
本文提出了一个新的 ProtoGAN 框架来合成额外的样例,以便在少样本学习 (FSL) 背景下的新动作识别和通用 FSL (G-FSL) 的环境下对已知和新的动作类别进行识别,并在 UCF101、HMDB51 和 Olympic-Sports 数据集上进行了大量实验以支持我们的结果。我们通过使用一个类原型传输网络(CPTN)从已知类别的示例中学习类原型向量来生成新的样例,并成功地展示了模型在识别新类别方面的更好表现。
Sep, 2019
我们介绍了一种创新的 FSCIL 框架,利用语言正则化器和子空间正则化器,该框架不仅能够使模型拥抱有限数据的新类别,还能确保对基础类别的性能保持,通过在基础训练阶段利用视觉 - 语言模型提取的语义信息和在增量训练阶段促进模型对图像和文本语义之间微妙连接的学习。
May, 2024