大规模扩散下的小样本学习
通过将输入样本分割成补丁,并借助 Vision Transformers 对其进行编码,从而在图像的局部区域之间建立语义对应关系,而不受其各自类别的影响。利用掩蔽图像建模等方法进行无监督训练,以克服标签不够精细以及避免负面的图像级注释影响,实现了对数据的更一般的统计结构的学习,并在四个流行的 Few-shot 分类基准测试中,对于 5-shot 和 1-shot 情形均取得了新的最优结果。
Jun, 2022
本文提出了一个复杂图像的低 - shot 学习基准模型,并以此为基础,提出一种注重表示规范化技术和为数据稀少的类别提供虚拟训练数据的技术,客观比较了不同方法在低 - shot 学习中的表现,并成功将 ImageNet 数据集中基于 novel classes 的 one-shot 准确率提高了 2.3 倍。
Jun, 2016
本文介绍了一种基于元学习的方法,通过学习无标签图像的传递特征来进行 few-shot 学习,同时采用了基于部分的自监督表示学习和部分增强策略来缓解数据稀缺引起的过度拟合问题,并在 miniImageNet 和 tieredImageNet 的基准测试中表现出优异的性能。
May, 2021
在本论文中,我们提出了一种新的算法,通过在流形中优化标记数据的特征嵌入来最小化可微损失函数,从而使我们的新算法 “自适应锚标签传播” 在 1-shot 和 5-shot 设置中分别比标准标签传播算法提高了 7% 和 2%。我们在四个广泛使用的 few-shot 基准数据集(miniImageNet,tieredImageNet,CUB 和 CIFAR-FS)和两个常用的主干网络(ResNet12 和 WideResNet-28-10)上提供了实验结果。该算法的源代码可在此 https URL 找到。
Oct, 2023
该研究提出了一种新的适用于 few-shot classification 的方法,使用伪标签技术结合蒸馏损失和标准交叉熵损失来解决小数据集的问题,并取得了比现有的算法更好的效果。
Dec, 2021
通过实验,本研究发现自监督学习在小类别图像识别中的迁移性、鲁棒性、效率及可补充性都超过了传统的少样本学习方法,并以 3.9% 的准确度优势取得了成功,因此需要更深入地研究自监督学习在少样本学习中的作用。
Oct, 2020
利用少量数据进行学习是一项具有挑战性的计算机视觉任务,本文通过引入高质量的语义以及使用简单的网络结构,设计了一个名为 “语义进化” 的自动化方式来解决少样本学习中的问题,实验证明该方法在少样本分类任务中表现优异。
Nov, 2023