无监督元学习用于少样本图像分类
本研究致力于发展一种在少量标记数据情况下对未标记数据进行分类的方法并提出一种新型Prototypical Networks和一种使用未标记数据的元学习算法来解实际问题,经过对Omniglot、miniImageNet和ImageNet进行实验,验证了这些算法可以使预测结果得到显著改进。
Mar, 2018
本文介绍了一种名为AAL的方法,通过数据增强和重复使用支持集来生成无需任何标签的无监督少样本元学习任务,以提高泛化能力,从而实现对小规模真实标注数据的有效训练。
Feb, 2019
提出了一个名为Meta-Dataset的大规模基准数据集,用于训练和评估模型在少样本分类问题上的性能,并探讨模型对不同训练来源的泛化能力和元学习的好处。
Mar, 2019
本研究关注元学习及其在few-shot分类任务中达到优秀表现的特征提取器,提出元学习模型表现优秀的原因并给出一种正则化方法来改进标准训练方法,在很多情况下,该方法不仅可超越元学习,且快速度又快。
Feb, 2020
本研究提出,以meta-training data为基础,先学习一个监督或自我监督的表征,再在表征上训练线性分类器,可以优于现有的few-shot learning方法。自教学技术可以进一步改善。这表明好的学习嵌入模型比复杂的元学习算法更有效。
Mar, 2020
该论文提出了一种称为Universal Representation Transformer (URT) 的方法,对多域few-shot图像分类进行元学习,通过动态重新加权和组合最适合的域特定表示来实现few-shot分类,该方法在Meta-Dataset数据集上取得了最佳结果。
Jun, 2020
本篇论文提出了基于无监督元学习(UML)的通用嵌入向量生成方式用于few-shot learning,并结合数据增强、半标准化相似度、混淆实例合成、任务相关嵌入变换等技术,取得了显著优于以前UML方法和甚至优于有监督方法的成果。
Nov, 2020
本研究提出了MetaDelta——一个用于少样本图像分类的实用元学习系统,包括多个元学习器和一个元组合模块,能够有效提高时间和资源利用效率,同时对未知数据集具有更好的泛化能力。MetaDelta在AAAI 2021 MetaDL挑战赛中获得第一名,代码公开可用。
Feb, 2021
本研究对元学习和迁移学习两种方法在小样本学习领域的应用进行了交叉研究,以 Meta-Dataset 和 Visual Task Adaptation Benchmark 两个基准测试集进行了测试,发现大规模的迁移学习方法表现最佳。
Apr, 2021