用对抗性类别存储进行连续少样本学习
本文研究了在用户定义的关键词系统中增量引入新词类的少样本语音单词分类问题,并提出了通过模型无关元学习 (MAML) 的扩展来解决灾难性遗忘的问题。在 Google Commands 和 FACC 上进行的实验表明,我们的方法在快速学习少量词汇的分类问题上优于 MAML 的另一种扩展 OML。
May, 2023
我们提出了一种称为元持续主动学习的简单而高效的方法,通过使用元学习和经验回放来在解决以前见过的任务时实现稳定性,并在新领域中展现出可塑性。我们的实验结果表明,在解决少样本持续主动学习问题时,随机采样是最好的默认策略,无论是在主动学习还是记忆样本选择方面。
Nov, 2023
本研究旨在开发 Adversarial Querying 算法以生成对小样本图像分类具有鲁棒性的元学习器,并比较其与迁移学习方式的性能表现,结果表明在 Mini-ImageNet 和 CIFAR-FS 等图像分类任务上,该方法具有远优于传统迁移学习方法的鲁棒表现。
Oct, 2019
本研究旨在使用混合方法来解决连续学习中遗忘的问题,该方法结合了体系结构生长来防止任务特定技能的遗忘,并采用经验回放方法来保存共享技能。研究结果表明,我们的混合方法在单个数据集和多个数据集的类增量学习中都表现优异。
Mar, 2020
本文介绍了一种用于持续学习的有监督对比学习框架,旨在通过保存少量的数据和适应的分类准则来解决在学习新任务时可能产生的灾难性遗忘问题,实验表明其表现优异。
May, 2023
提出了一种新颖的连续元学习方法,使用贝叶斯图神经网络 (CML-BGNN) 将元学习数学公式化为一系列任务的连续学习,在图形上保留任务内部和任务之间的相关性,利用 Amortized inference networks 解决了图形初始化的拓扑不确定性,提高了 minImageNet 5-way 1-shot 分类任务的分类性能。
Nov, 2019
本文提出了一种新的少样本生命周期学习方法,通过仅训练模型的部分参数来防止过拟合,同时最大程度上减少了灾难性遗忘,并通过减小新旧类别原型之间的余弦相似度以最大化它们的分离来提高分类性能,同时还证明了结合自我监督的方法可以显著提高模型性能。
Mar, 2021