元学习式的无监督学习
本文提出了一种基于元学习的半监督学习方法,将有标签和无标签数据的相似度转化为对应的语义相似度,并通过自监督学习的方法实现了对有标签数据的更新。实验证明该方法较之传统方法更为有效。
Aug, 2020
通过一次性无监督元学习方法,利用增强样本作为查询集来学习训练样本的潜在表示,并通过温度缩放的交叉熵损失在元学习的内循环中防止过拟合。该方法是模型无关的,能够提高任何元学习模型的准确性,并通过在初始化和快速调适阶段采用目标有监督元学习的方式,在 Omniglot 和 mini-Imagenet 数据集上展示了该方法的性能。此外,具备该初始化的元学习模型可以在较少的训练样本下达到令人满意的准确性。
Oct, 2023
本研究旨在提出一种元学习的无监督学习规则并与神经元 - 本地函数相结合,以使其能够推广到不同的神经网络体系结构,数据集和数据模态,并基于半监督分类性能来生成用于下一阶段任务的表示。实验结果表明,元学习的无监督学习规则能够产生有用的特征,甚至优于现有的无监督学习技术。
Mar, 2018
本文提出了一个基于对元学习与传统监督学习之间联系的重新审视和加强的原则性统一框架,通过把任务特定数据集和目标模型看作(特征、标签)样本,我们可以把许多元学习算法归约到监督学习的实例中,进一步提高了元学习的表现。
Feb, 2020
本篇论文提出了基于无监督元学习(UML)的通用嵌入向量生成方式用于 few-shot learning,并结合数据增强、半标准化相似度、混淆实例合成、任务相关嵌入变换等技术,取得了显著优于以前 UML 方法和甚至优于有监督方法的成果。
Nov, 2020
通过信息理论设计的元正则化目标,可以使元学习器在任务训练数据和任务测试数据之间有效地适应,成功地使用来自非相互排斥任务的数据来有效地适应新任务,并在应用场景中大幅优于标准元学习算法。
Dec, 2019
本研究提出了一种名为 “Pseudo-supervised Contrast (PsCo)” 的无监督元学习框架,可以在少样本分类任务中改进伪标签并以渐进方式构建多样化的任务,实验证明该框架在各种领域和跨领域的少样本分类基准测试中表现优异。
Mar, 2023
本文提出了一种自监督的方法来生成大量的 meta-learning 任务分布,通过这种方法,将 transformer 模型的预训练与 meta-learning 相结合,证明了这种方法能够在 NLP 任务上实现更好的少样本泛化。
Sep, 2020