无监督自监督训练的小样本学习
本文提出一种通过自我监督来改善少样本学习的方法,使特征提取器可以在使用少量带注释样本的同时学习更丰富和更具可转移性的视觉表征,该方法可以自然地扩展到从其他数据集中使用多样化的带标签数据的情况,并在各种架构,数据集和自我监督技术上实现了始终如一的改进。
Jun, 2019
本研究使用无标签数据进行自我监督的预训练,通过迭代聚类和重新排序,并通过扩展对比优化损失来纳入类别层次意识,以在下游分类任务中进行少样本微调。实验证明,该方法在标准和跨域场景下的性能均优于其他方法,并取得了最新的表现。
Feb, 2022
提出了一种基于自我监督的无监督学习方法来处理 few-shot learning 问题,解决了现有方法使用大规模标记数据集的问题,该方法通过最大化相互信息来进行自我监督预训练,使得模型在处理未知类别时具有更好的泛化性能。
Jul, 2022
该论文提出了一种两阶段的学习方法,通过最大化特征嵌入的熵来创造一个最佳输出流形,并通过自我监督的双胞胎约束流形,最小化特征嵌入的熵来提高深度神经网络在少样本学习任务中的表示能力。
Jun, 2020
通过实验,本研究发现自监督学习在小类别图像识别中的迁移性、鲁棒性、效率及可补充性都超过了传统的少样本学习方法,并以 3.9% 的准确度优势取得了成功,因此需要更深入地研究自监督学习在少样本学习中的作用。
Oct, 2020
本文提出了一种新颖的半监督元学习方法,称为学习自我训练(LST),通过使用无标签数据和元学习来自动加标和改进模型,取得了在 ImageNet 数据库上半监督 few-shot 分类领域中最新方法无法超越的良好分类效果。
Jun, 2019
本文介绍了一种基于元学习的方法,通过学习无标签图像的传递特征来进行 few-shot 学习,同时采用了基于部分的自监督表示学习和部分增强策略来缓解数据稀缺引起的过度拟合问题,并在 miniImageNet 和 tieredImageNet 的基准测试中表现出优异的性能。
May, 2021
本论文提出了一种利用自我监督任务作为辅助损失函数来改善小型标注数据集上深度表示可迁移性的技术,其中使用自监督损失学习的表示减少了元学习的相对误差率,此方法在各种学习任务中都取得了良好的表现。
Jun, 2019