无监督元学习用于少样本图像分类
本篇论文提出了基于无监督元学习(UML)的通用嵌入向量生成方式用于 few-shot learning,并结合数据增强、半标准化相似度、混淆实例合成、任务相关嵌入变换等技术,取得了显著优于以前 UML 方法和甚至优于有监督方法的成果。
Nov, 2020
通过一次性无监督元学习方法,利用增强样本作为查询集来学习训练样本的潜在表示,并通过温度缩放的交叉熵损失在元学习的内循环中防止过拟合。该方法是模型无关的,能够提高任何元学习模型的准确性,并通过在初始化和快速调适阶段采用目标有监督元学习的方式,在 Omniglot 和 mini-Imagenet 数据集上展示了该方法的性能。此外,具备该初始化的元学习模型可以在较少的训练样本下达到令人满意的准确性。
Oct, 2023
本研究致力于发展一种在少量标记数据情况下对未标记数据进行分类的方法并提出一种新型 Prototypical Networks 和一种使用未标记数据的元学习算法来解实际问题,经过对 Omniglot、miniImageNet 和 ImageNet 进行实验,验证了这些算法可以使预测结果得到显著改进。
Mar, 2018
本文介绍了一种基于元学习的方法,通过学习无标签图像的传递特征来进行 few-shot 学习,同时采用了基于部分的自监督表示学习和部分增强策略来缓解数据稀缺引起的过度拟合问题,并在 miniImageNet 和 tieredImageNet 的基准测试中表现出优异的性能。
May, 2021
我们提出了一种用于少样本图像分类的传导元学习方法,结合了经过正则化的马氏距离软 k-means 聚类过程和修改后的最先进的神经自适应特征提取器来使用未标记数据提高测试时间分类准确性,我们在 Meta-Dataset、mini-ImageNet 和 tiered-ImageNet 基准测试上取得了最先进的性能。
Jun, 2020
本文介绍了一种名为 AAL 的方法,通过数据增强和重复使用支持集来生成无需任何标签的无监督少样本元学习任务,以提高泛化能力,从而实现对小规模真实标注数据的有效训练。
Feb, 2019
本文提出了一种自监督的原型传递学习方法 ProtoTransfer,旨在通过构建一个可以将未标记的样本和它们的增强聚类在一起的度量嵌入来预测少量标记数据的正确类别。我们在 mini-ImageNet 数据集上的少量样本分类任务中通过 ProtoTransfer 方法超越了最先进的无监督元学习方法。在存在领域偏移的少样本实验中,我们的方法甚至具有可比拟于监督方法的性能,但需要 orders of magnitude 较少的标签。
Jun, 2020
本文提出了一种基于熵和不等式优化的任务不可知元学习算法,可以在避免过度适应已有任务和提高元学习器泛化性能方面有效地解决少样本学习问题,并在少量分类和强化学习任务中表现优异。
May, 2018
本文提出了一种自监督的方法来生成大量的 meta-learning 任务分布,通过这种方法,将 transformer 模型的预训练与 meta-learning 相结合,证明了这种方法能够在 NLP 任务上实现更好的少样本泛化。
Sep, 2020