从一次学习中学习
本文在对 Few-Shot Learning 进行了深入的调研的基础上,选择使用三种视角:数据,模型,和算法来对 FSL 的方法进行分类,以提供未来研究的启示。
Apr, 2019
本文介绍一种使用合成数据进行少样本分类的方法,该方法可以分类高维真实世界数据集,并将其应用于以前未见的自然语言处理任务中,使用软标签原型和修改的 k 近邻分类器进行分类,结果表明该方法可以在少数样本下进行分类,甚至超越了更复杂的 few-shot 学习方法。
Oct, 2022
通过开发一类深度生成模型,结合深度学习的表示能力和贝叶斯推理的推理能力,我们开发了一类具有一次性泛化能力的机器学习系统,并在三个任务上展示了其能力:无条件采样、生成给定概念的新实例、以及生成一组概念的新实例,所有这些情况下我们的模型只需看到一次新的例子即可生成引人入胜且多样化的样本,这为单次机器学习提供了一类重要的通用模型。
Mar, 2016
本研究使用深度神经网络和度量学习的思想,建立了一种学习新概念的框架,从而不需要微调以适应新的类别类型,并在视觉和语言任务中定义了一次性学习问题,实验结果表明,在 Imagenet 数据集上,准确率从 87.6% 提高到 93.2%,在 Omniglot 数据集上,准确率从 88.0% 提高到 93.8%。
Jun, 2016
LSFSL improves the generalizability and robustness of few-shot learning models by incorporating relevant priors and addressing shortcut learning in deep neural networks.
Apr, 2023
通过人类的单次或少次学习的能力,本文借鉴启发式的思想,提出了一种简单的技术,使深度循环网络能够利用其先前的知识从少量数据中学习新单词的有用表示,使自然语言处理系统更加灵活。
Oct, 2017
该研究提出了一种基于卷积神经网络和注意力机制的少样本视觉学习系统,旨在实现在测试时只使用少量训练数据就能有效地学习新类别,同时不会忘记原先基础类别的模型。经过在 Mini-ImageNet 数据集的测试,该模型在 1-shot 和 5-shot 设置下都取得了 56.20% 和 73.00% 的最优成绩。
Apr, 2018
本文提出了一种新的任务:约束的少样本学习(CFSL),介绍了一种基于 Cat2Vec 的 CFSL 方法,该方法使用类别对比损失,并受到模糊痕迹理论和原型理论等认知理论的启发。
Aug, 2022
本文主要研究了基于简单特征变换的最近邻分类器在 few-shot 学习上的精度,并发现在 miniImageNet 数据集中,使用平均值减法和 L2 归一化的最近邻分类器在三个设置上优于之前的结果。
Nov, 2019
本文提出了一种新的少样本生命周期学习方法,通过仅训练模型的部分参数来防止过拟合,同时最大程度上减少了灾难性遗忘,并通过减小新旧类别原型之间的余弦相似度以最大化它们的分离来提高分类性能,同时还证明了结合自我监督的方法可以显著提高模型性能。
Mar, 2021