少样本分类中的泛化思考
本文提出了一个复杂图像的低-shot学习基准模型,并以此为基础,提出一种注重表示规范化技术和为数据稀少的类别提供虚拟训练数据的技术,客观比较了不同方法在低-shot学习中的表现,并成功将 ImageNet 数据集中基于 novel classes 的 one-shot 准确率提高了2.3倍。
Jun, 2016
本文提出了一种新的适应实例嵌入到目标分类任务中的方法,通过一种集合到集合的函数,生成特定于该任务且有区分度的嵌入,并在标准少样本分类基准和四个扩展少样本学习设置中进行了验证,取得了一致的改进和最新的最佳结果。
Dec, 2018
本文提出一种通过自我监督来改善少样本学习的方法,使特征提取器可以在使用少量带注释样本的同时学习更丰富和更具可转移性的视觉表征,该方法可以自然地扩展到从其他数据集中使用多样化的带标签数据的情况,并在各种架构,数据集和自我监督技术上实现了始终如一的改进。
Jun, 2019
本研究提出,以meta-training data为基础,先学习一个监督或自我监督的表征,再在表征上训练线性分类器,可以优于现有的few-shot learning方法。自教学技术可以进一步改善。这表明好的学习嵌入模型比复杂的元学习算法更有效。
Mar, 2020
本篇论文提出了基于无监督元学习(UML)的通用嵌入向量生成方式用于few-shot learning,并结合数据增强、半标准化相似度、混淆实例合成、任务相关嵌入变换等技术,取得了显著优于以前UML方法和甚至优于有监督方法的成果。
Nov, 2020
本文提出了基于产品专家公式和 A UD 模块的零样本和少量样本归纳学习框架,利用来自非数据类的未标记采样来提高任意数量学习的泛化能力,并证明了该模型适用于有限监督场景下的广义零样本模型。
Jul, 2021
提出了两种不同的损失函数——Proto-Triplet Loss和ICNN loss,其中考虑了嵌入向量的重要性,并评估了训练后网络获得的嵌入的质量。在实验中,相比其他度量法,这些损失函数在miniImagenNet基准测试中将准确率显著提高了2%,表明这些损失函数有能力使网络更好地推广到以前未见过的类别。
May, 2023
利用局部表示在改进新类别通用性方面发挥了作用,我们设计了一个新的预训练范式,通过软标签学习随机裁剪的补丁,并且我们提出了一种度量方法来处理由同质元素组成的集合,我们的方法在三个常用基准测试中取得了最新的最佳性能。
Jul, 2024
本研究解决了当前机器学习系统在少量标记样本下快速学习的不足,通过量化评估Masked Image Modeling(MIM)和Contrastive Learning(CL)在少样本学习任务中的影响。提出了新的Masked Image Contrastive Modeling(MICM)范式,将CL的目标对象学习优势与MIM的通用视觉特征学习能力结合,显著提升了少样本学习的效果,并在实验中显示出优于现有基准的方法。
Aug, 2024
本研究解决了传统基于度量的方法在少量样本分类中的局限性,尤其是未能充分利用浅层特征的问题。我们提出了一种新方法,通过多输出嵌入网络映射样本到不同特征空间,并结合自注意机制来改进特征提取,最终显著提升了分类性能。实验结果表明,该方法在MiniImageNet和FC100数据集上效果优异,展示了其在少量样本图像分类中的潜在影响。
Sep, 2024