这篇论文介绍了几种代表性的 few-shot 分类算法的一致性比较分析,包括修改的基准线方法,新的评估设置等,并揭示了在 backbones 网络较深时,减少类内变异是一个重要的因素,但与使用较浅的 backbones 网络时不太重要的结论。在现实的跨域评估设置中,我们展示了一种标准的微调实践的基准方法与其他最先进的 few-shot 学习算法相比的优越性。
Apr, 2019
该研究证明,在 mini-ImageNet 数据集中,fine-tuning 方法在 1-shot 任务中比常见的 few-shot learning 算法具有更高的准确性,在 5-shot 任务中准确率几乎与最先进的算法相同,同时展示了在高分辨率单领域和跨领域任务中,该方法比常见 few-shot learning 算法具有更高的准确性。
Oct, 2019
本文旨在深入研究几种少量数据学习框架用于视频分类的方法,通过提出基于分类器的基线模型等贡献,发现现有的度量学习法存在的局限性,并发现新行动类别和 ImageNet 物体类别之间高度相关,最终提出了一个新的基准数据集以促进未来的少样本数据的视频分类研究,该代码将在指定网址上公开。
Oct, 2021
本文系统地研究了训练数据变化对深度图像特征的质量和通用性的影响,并提出了关键实用问题,如在固定注释预算情况下,每类图像数量和类别数量之间的最佳权衡
Jul, 2020
本文研究了在训练数据稀缺的情况下,通过在较少的基础类别上进行微调,以改善少样本学习,探索了提取目标数据集更好特征的可能性,并提供了可在任何少样本解决方案中实施的简单且直观的方法。
Jan, 2024
本文提出了一种针对 few-shot learning 中使用的分类器训练,通过在基础模型中冻结或微调特定层以转移部分知识来提高性能,并引入基于进化搜索的方法以自动化此选择过程,以得到在 CUB 和 mini-ImageNet 中具有最先进表现的该方法。
Feb, 2021
本研究提出了一种基于元学习框架的元学习 Few-Shot Learning 方法,其中利用一种简单而有效的元 Dropout 机制,防止神经元在元训练阶段过度协同。实验验证了该方法在目标检测领域的有效性。
Oct, 2022
本文通过一系列超过 1.8k 个控制实验,对少样本图像分类的 PEFT(参数效率微调)方法进行了大规模、实验一致的经验分析,发现只微调层归一化参数及学习一组每个注意力矩阵的缩放参数的方法,成为 Vision Transformer 预训练模型最强大的微调方法。此外,对于自监督 ViTs,我们发现仅学习每个注意力矩阵的缩放参数和一个 Domain-residual adapter(DRA)模块即可实现无与伦比的性能表现,而模型可参数化程度更高。
Apr, 2023
该研究提出了一种新的适用于 few-shot classification 的方法,使用伪标签技术结合蒸馏损失和标准交叉熵损失来解决小数据集的问题,并取得了比现有的算法更好的效果。
Dec, 2021
本研究提出,以 meta-training data 为基础,先学习一个监督或自我监督的表征,再在表征上训练线性分类器,可以优于现有的 few-shot learning 方法。自教学技术可以进一步改善。这表明好的学习嵌入模型比复杂的元学习算法更有效。
Mar, 2020