Few-Shot 图像分类中的通道重要性问题
本文提出了一种基于 facets 的自适应相似性度量方法,该方法可以被用于改进现有的基于度量的 few-shot learning 模型,并在 miniImageNet 和 CUB 数据集上实现了 state-of-the-art 的表现。
Feb, 2021
LSFSL improves the generalizability and robustness of few-shot learning models by incorporating relevant priors and addressing shortcut learning in deep neural networks.
Apr, 2023
通过构建因果模型,提出了一种新的干预式 Few-Shot 学习范式,与现有的 Fine-tuning 和 Meta-learning 等方法正交,可以显著提高它们的性能,在多个数据集上均取得新的 1-/5-shot 最新成果。
Sep, 2020
本文提出了一种基于动态对齐的特征调整方法,从视觉识别的角度解决了 few-shot learning 的问题,采用神经常微分方程技术,使模型能更好地捕捉少量样本的微粒子级别的语义上下文,大幅提高了在 miniImageNet 和 tieredImageNet 数据集上的识别准确率。
Mar, 2021
该研究对最近在机器学习领域受到欢迎的少样本学习在三维感知上的应用进行了深入系统研究,提出了一种新的组件 Cross-Instance Adaptation(CIA) module,将其插入到当前基线模型中可显著提高表现,并在两个新的基准数据集上证明了该模型的优越性。
Mar, 2023
本文提出了一种新颖的基于转移学习的方法,通过预处理特征向量使其更接近高斯分布,并利用基于最优输运的算法 (在普遍情况下) 加以利用,证明了该方法在各种数据集、主干体系结构和少样本情形下达到最先进的准确性。
Jun, 2020
本研究通过使用神经网络架构、外部数据预训练和很少有标签的数据进行微调的三阶段流水线,探索了少样本学习的问题。研究发现,使用 transformer 的简单流水线在 Mini-ImageNet,CIFAR-FS,CDFSL 和 Meta-Dataset 等数据集上获取了惊人的表现。
Apr, 2022
本论文提出了一种新的训练机制,同时注重等变性和不变性,使得模型能够充分学习具有独立性的特征以及几何变换的结构,进而能够在具有少量数据的情况下很好地推广。通过引入自我监督的蒸馏目标,本文的方法即使不使用知识蒸馏,在五个流行数据集上的表现也能超过目前最先进的 few-shot learning 方法。
Mar, 2021