连续少样本学习的基准定义
本文定义了一个新问题:不断出现的少样本学习;提出了 Continual Meta-Learner 来解决此问题,并在 MiniImageNet 和 CIFAR100 两个图像数据集上进行了广泛实验,表明 CML 在少量样本学习任务的分类准确性方面实现了现有最先进水平并避免了灾难性遗忘。
Jul, 2022
本文提出了一种新的少样本生命周期学习方法,通过仅训练模型的部分参数来防止过拟合,同时最大程度上减少了灾难性遗忘,并通过减小新旧类别原型之间的余弦相似度以最大化它们的分离来提高分类性能,同时还证明了结合自我监督的方法可以显著提高模型性能。
Mar, 2021
在 Few-Shot 学习中,已经提出了许多基准测试,但是所有这些基准测试都侧重于在许多任务上平均性能,而关于如何可靠地评估和调整针对单个任务进行训练的模型的问题尚未得到解决。本文首次探讨了任务级评估,这是部署模型的基本步骤。我们衡量了少样本设置下性能估计器的准确性,考虑了模型选择的策略,并研究了通常被认为具有鲁棒性的评估器失败的原因。我们得出结论,将低折叠交叉验证作为直接估计模型性能的最佳选择,而使用自助法或大折叠交叉验证则更适用于模型选择目的。总体而言,我们发现现有的 Few-Shot 学习基准测试并不是以一种可靠的方式设计的,无法获得关于如何有效地在个别任务上使用方法的可靠画面。
Jul, 2023
这篇研究论文旨在通过优化跨熵损失训练深度网络,提出一种基准模型来解决 few-shot 学习问题,并通过使用更多的元训练类来提高准确性,同时提出衡量 few-shot 任 务难度的度量标准。
Sep, 2019
本文旨在深入研究几种少量数据学习框架用于视频分类的方法,通过提出基于分类器的基线模型等贡献,发现现有的度量学习法存在的局限性,并发现新行动类别和 ImageNet 物体类别之间高度相关,最终提出了一个新的基准数据集以促进未来的少样本数据的视频分类研究,该代码将在指定网址上公开。
Oct, 2021
该研究证明,在 mini-ImageNet 数据集中,fine-tuning 方法在 1-shot 任务中比常见的 few-shot learning 算法具有更高的准确性,在 5-shot 任务中准确率几乎与最先进的算法相同,同时展示了在高分辨率单领域和跨领域任务中,该方法比常见 few-shot learning 算法具有更高的准确性。
Oct, 2019
该研究提出了一个新的学习框架 CLIF,可以在不断更新的多个 NLP 任务中提高模型的泛化能力,同时保留早期任务的表现,作者使用了多种方法对该框架进行了评估,并提出了一种新的适配器生成方法。
Apr, 2021
本文通过定量和定性研究表明,常见的 Few-Shot 图像分类基准数据集存在很大的偏见,严重影响了实际应用场景的实际使用,提出了一个基于语义信息的对标准数据集的改进方案,并引入了另一个基于丹麦真菌 2020 数据集的新基准,包括一系列用于评估任务的类别。文章进一步介绍分类任务难度与其类别语义相似度之间的相关性,讨论了现有方法在处理许多分类任务时性能下降的问题,并呼吁研究者进一步质疑标准评估过程的质量及其在实际应用中的相关性。
May, 2022
本论文提出了一个三阶段框架来解决 Few-shot 学习中的挑战,包括学习新类别,避免基类的灾难性遗忘以及横跨新基类的分类器校准,通过在图像和视频少样本分类的四个基准数据集上的实验证明该框架达到了最先进的结果。
Aug, 2021