通过实验和分析,研究了自监督学习对于小样本学习的有效性,证明自监督学习可以降低元学习中相对误差率 4%-27%,对元学习器有更多的改进,尤其是在训练集更小或任务更具挑战性的情况下。但在元学习和自监督学习使用的图像分布不同时,自监督学习有可能会降低元学习器的表现。最后,作者提出一种方法,可以从大量的通用未标记图片中自动选择适合特定数据集的自监督学习样本,以进一步提高元学习器的性能。
Oct, 2019
本研究提出,以 meta-training data 为基础,先学习一个监督或自我监督的表征,再在表征上训练线性分类器,可以优于现有的 few-shot learning 方法。自教学技术可以进一步改善。这表明好的学习嵌入模型比复杂的元学习算法更有效。
Mar, 2020
本文提出了一种自监督的原型传递学习方法 ProtoTransfer,旨在通过构建一个可以将未标记的样本和它们的增强聚类在一起的度量嵌入来预测少量标记数据的正确类别。我们在 mini-ImageNet 数据集上的少量样本分类任务中通过 ProtoTransfer 方法超越了最先进的无监督元学习方法。在存在领域偏移的少样本实验中,我们的方法甚至具有可比拟于监督方法的性能,但需要 orders of magnitude 较少的标签。
Jun, 2020
本研究提出了一种基于自监督训练(UFLST)的无监督少样本学习方法,使用渐进聚类和情节训练进行训练以进一步优化数据的特征表示,并证明了该模型在几个基准数据集中的良好性能,包括 Omniglot 和 Mini-ImageNet。
Dec, 2019
本研究使用无标签数据进行自我监督的预训练,通过迭代聚类和重新排序,并通过扩展对比优化损失来纳入类别层次意识,以在下游分类任务中进行少样本微调。实验证明,该方法在标准和跨域场景下的性能均优于其他方法,并取得了最新的表现。
Feb, 2022
本文综述了近期研究的少样本和自监督目标检测方法,并提出了研究中的主要收获和未来方向。
Oct, 2021
本文提出一种新的 SSL 算法,通过引入转移学习和自主监督来初始化数据的表示,再利用新算法,交替拟合有标签和无标签点以降低过拟合和避免标签和无标签损失平衡的问题。实验证明,该方法在标准基准测试中表现优异,特别是在从其他任务或数据集中细化时,效果更佳。
May, 2019
本文提出一种通过自我监督来改善少样本学习的方法,使特征提取器可以在使用少量带注释样本的同时学习更丰富和更具可转移性的视觉表征,该方法可以自然地扩展到从其他数据集中使用多样化的带标签数据的情况,并在各种架构,数据集和自我监督技术上实现了始终如一的改进。
Jun, 2019
该论文提出了一种两阶段的学习方法,通过最大化特征嵌入的熵来创造一个最佳输出流形,并通过自我监督的双胞胎约束流形,最小化特征嵌入的熵来提高深度神经网络在少样本学习任务中的表示能力。
我们通过引入额外的熵损失构建了一个分类器,用于对来自已知和未知类别的数据进行分类,从而改进了现有的半监督学习方法在已知和未知类别的分类中的表现。通过在 CIFAR-100 和 STL-10 两个基准图像分类数据集上的实验证明,我们相对于现有的 SSL、开放集合 SSL 和开放世界 SSL 方法取得了巨大的改进。当标记数据非常有限(每个类别 1-25 个标记示例)时,进步最为显著。
Aug, 2023