半监督少样本分类的元学习
本篇论文提出了基于无监督元学习(UML)的通用嵌入向量生成方式用于 few-shot learning,并结合数据增强、半标准化相似度、混淆实例合成、任务相关嵌入变换等技术,取得了显著优于以前 UML 方法和甚至优于有监督方法的成果。
Nov, 2020
本文提出了一种自监督的原型传递学习方法 ProtoTransfer,旨在通过构建一个可以将未标记的样本和它们的增强聚类在一起的度量嵌入来预测少量标记数据的正确类别。我们在 mini-ImageNet 数据集上的少量样本分类任务中通过 ProtoTransfer 方法超越了最先进的无监督元学习方法。在存在领域偏移的少样本实验中,我们的方法甚至具有可比拟于监督方法的性能,但需要 orders of magnitude 较少的标签。
Jun, 2020
通过一次性无监督元学习方法,利用增强样本作为查询集来学习训练样本的潜在表示,并通过温度缩放的交叉熵损失在元学习的内循环中防止过拟合。该方法是模型无关的,能够提高任何元学习模型的准确性,并通过在初始化和快速调适阶段采用目标有监督元学习的方式,在 Omniglot 和 mini-Imagenet 数据集上展示了该方法的性能。此外,具备该初始化的元学习模型可以在较少的训练样本下达到令人满意的准确性。
Oct, 2023
基于元学习框架,我们提出了一种端到端训练范式,通过整个训练集的信息与元学习训练范式相互增强,以解决少样本学习中训练成本高和性能欠佳的问题。而且,我们的框架是无模型偏见的,相比基准系统提升了约 1% 的性能。
Mar, 2024
本文探讨了在整个标签集上进行全分类的简单方法,并通过此方法在多个基准测试中取得了与现有技术相当的表现。同时,本文还对元学习与全分类目标在少样本学习中的权衡进行了深入分析。
Mar, 2020
我们提出了一种用于少样本图像分类的传导元学习方法,结合了经过正则化的马氏距离软 k-means 聚类过程和修改后的最先进的神经自适应特征提取器来使用未标记数据提高测试时间分类准确性,我们在 Meta-Dataset、mini-ImageNet 和 tiered-ImageNet 基准测试上取得了最先进的性能。
Jun, 2020
本文提出在 few-shot classification 问题中采用深度神经网络集成来解决分类器高方差的问题,通过引入新策略鼓励网络相互合作来提高分类性能,实验结果表明该方法在 mini-ImageNet 和 CUB 数据集上显著优于当前的 meta-learning 技术。
Mar, 2019
本文提出了一种自监督的方法来生成大量的 meta-learning 任务分布,通过这种方法,将 transformer 模型的预训练与 meta-learning 相结合,证明了这种方法能够在 NLP 任务上实现更好的少样本泛化。
Sep, 2020
本文提出了一种基于聚类的半监督少样本分类方法,使用 Prototypical Networks 提取特征并结合 K-means 聚类算法,利用少量标记样本指导聚类过程,而用户反馈可以显著改善适应性能。通过图像数据的实验,证明了该策略的良好性能。
Nov, 2017