DiffKendall:采用可微分肯德尔秩相关进行少样本学习的新方法
本文提出了一种名为 Simple CNAPS 的新型神经网络架构,采用 Mahalanobis 距离作为距离衡量标准并学习适应性特征提取器,从而在标准 few-shot 图像分类基准数据集上实现了 6.1% 的性能提升。
Dec, 2019
本文提出了一种针对少样本学习的跨域迁移学习方法,该方法通过构建目标域感知的非线性子空间以及距离校准来提高传统基于距离的分类器的分类性能,这种距离校准通过逐步引导模型向经过校准的距离分布转化达成。
Dec, 2021
本文提出了一种新的基于相关性的一致性知识蒸馏框架 (CCKD),通过引入泰勒级数展开的广义核方法捕获实例间的相关性,并在图像分类任务和度量学习任务中实现了最优结果。
Apr, 2019
本文提出了积分梯度正则化 (IGR) 方法,可以通过最大化自然和扰动归因之间的余弦相似度来获得健壮的模型归因,从而提高模型的对抗性稳健性。在不同模型和数据集上的实验验证了我们的分析结果。
May, 2022
本文提出了一种新的 few-shot learning pipeline,将图像检索的相关性排名转化为二进制排名关系分类。我们的深度神经网络的核心组件是一个简单的 MLP,并可构建于任何最先进的特征提取器之上。在元测试期间,RankDNN 根据支持图像与查询样本的相似度对其进行排名,并将每个查询样本分配给其最近邻的类标签。实验表明 RankDNN 能有效提高其基线算法的性能,并在包括 miniImageNet、tieredImageNet、Caltech-UCSD Birds 和 CIFAR-FS 在内的多个 few-shot 学习基准上优于先前的状态 - of-the-art 算法。
Nov, 2022
提出了两种不同的损失函数 ——Proto-Triplet Loss 和 ICNN loss,其中考虑了嵌入向量的重要性,并评估了训练后网络获得的嵌入的质量。在实验中,相比其他度量法,这些损失函数在 miniImagenNet 基准测试中将准确率显著提高了 2%,表明这些损失函数有能力使网络更好地推广到以前未见过的类别。
May, 2023
本论文旨在探究在不需要额外注释或训练数据的情况下,如何学习图像相似性的特征。通过构建一种新的三元组采样策略,实验结果表明,该方法可以显著提高深度度量学习的性能,并在各种标准基准数据集上实现了新的最优结果。
Apr, 2020
本文提出了一种上下文感知的双曲度量学习方法,可用于 few-shot learning 任务,并且在多个分类基准上的实验结果表明这种方法不仅具有鲁棒性,而且表现优于基线模型。
Dec, 2021
本文提出了一种新颖的基于交互通道相关性的知识蒸馏方法,Inter-Channel Correlation for Knowledge Distillation (ICKD),旨在解决先前方法忽略了保留特征的通道间相关性的问题。在 ImageNet 分类和 Pascal VOC 分割任务中,我们的方法优于现有方法并取得了最好的效果,成为目前知识蒸馏领域最前沿的技术之一。
Feb, 2022
本研究提出一种新的知识蒸馏方法,即通过皮尔逊相关系数来模拟特征之间的相互关系,以放松特征大小的限制,从而有效地在目标检测中训练异构模型,并在 COCO2017 数据集上分别与 RetinaNet 和 FCOS 基线相比,分别获得 4.1%和 4.8%的 mAP 提高。
Jul, 2022