如何信任未标记的数据?针对少样本学习的实例可信推断方法
该论文研究了一种名为“few-example object detection”的目标检测方法,使用了大量未标记图像和每类仅少量标记图像,并提出了基于模型训练和高置信度样本选择的策略来生成高信度的训练样本;通过嵌入多个检测模型来进一步提高样本的精度和召回率,并在实验中证明了其与使用大量图像级别标签的最先进弱监督方法相比,使用每类仅3-4个样本可获得非常有竞争力的结果。
Jun, 2017
本文介绍了一种名为AAL的方法,通过数据增强和重复使用支持集来生成无需任何标签的无监督少样本元学习任务,以提高泛化能力,从而实现对小规模真实标注数据的有效训练。
Feb, 2019
本文提出一种通过自我监督来改善少样本学习的方法,使特征提取器可以在使用少量带注释样本的同时学习更丰富和更具可转移性的视觉表征,该方法可以自然地扩展到从其他数据集中使用多样化的带标签数据的情况,并在各种架构,数据集和自我监督技术上实现了始终如一的改进。
Jun, 2019
本研究提出了一种基于自监督训练(UFLST)的无监督少样本学习方法,使用渐进聚类和情节训练进行训练以进一步优化数据的特征表示,并证明了该模型在几个基准数据集中的良好性能,包括 Omniglot 和 Mini-ImageNet。
Dec, 2019
本文提出了一种称为ICI的简单统计方法,利用未标记实例的分布支持来解决少样本学习问题,并通过增加偶发参数的稀疏度排名伪标签实例的可靠性和进行多次迭代的重新训练来改善分类器效果,大量实验证明该方法可以在四种流行的少样本数据集上获得新的最先进的表现。
Mar, 2020
通过实验,本研究发现自监督学习在小类别图像识别中的迁移性、鲁棒性、效率及可补充性都超过了传统的少样本学习方法,并以3.9%的准确度优势取得了成功,因此需要更深入地研究自监督学习在少样本学习中的作用。
Oct, 2020
本文介绍了一种基于元学习的方法,通过学习无标签图像的传递特征来进行few-shot学习,同时采用了基于部分的自监督表示学习和部分增强策略来缓解数据稀缺引起的过度拟合问题,并在miniImageNet和tieredImageNet的基准测试中表现出优异的性能。
May, 2021
该论文介绍了一种用于少量数据情况下目标检测的伪标注方法,可以从训练数据中找到高质量伪标注,显著增加训练实例数量,降低类别不平衡问题,通过验证技术和训练一个专门的模型来纠正盒子边框的质量,其中展示了算法在PASCAL VOC和MS-COCO数据集上的表现,与现有方法相比获得了最优状态或次优状态。
Dec, 2021
该研究提出了两种策略来提高少样本识别模型的最坏情况准确率,分别是模型稳定性正则化和自适应校准机制,并在基准数据集上进行了实验,取得了当前最先进方法无法匹敌的成果。
Mar, 2022
我们的研究探索了检索增强学习(RAL)在少样本识别中的应用。在这项工作中,我们提出了利用 Vision-Language Models(VLMs)进行 finetuning 的两个阶段方法:第一阶段对混合数据进行端到端 finetuning,第二阶段仅使用少样本数据重新训练分类器。实验证明,该方法在标准基准数据集上取得了最佳性能,准确度比现有方法提高了约 10%。
Jun, 2024