再论姿态归一化在细粒度少样本识别中的应用
该论文提出了一种基于语义部分定位的细粒度分类方法,并通过利用深度卷积特征来克服对象检测困难,同时学习整个对象和零散对象部分的检测器和他们之间的几何约束,从而预测一个细粒度的类别。该方法在不需要在测试时提供包围盒的情况下,通过对Caltech-UCSD Bird数据集的实验证明其优于现有细粒度分类方法。
Jul, 2014
本文提出了一种全卷积网络的方法,通过部位定位和关键点标注来实现表观的转化,以有效解决姿态变化和外观上的微妙差异在微细分类中的挑战。在CUB200测试集中表现出最新的性能,为强监督发挥了重要作用。
Nov, 2015
本文提出了一种端到端的可训练深度网络,旨在解决少样本下的细粒度图像识别问题。该网络包括双线性特征学习模块和分类器映射模块,前者将示例图像的区分信息编码为特征向量,后者映射中间特征到新类别的决策边界。我们在三个细粒度数据集上进行了实验,结果表明该方法优于竞争基线。
May, 2018
本文介绍了一种针对细分类别的物体姿态估计的新数据集以及一种基于 Faster/Mask R-CNN 模型的姿态估计框架,同时使用了 3D CAD 模型和 location field 来提高性能。
Jun, 2018
本文研究了如何通过增大少样本学习中的类内方差,以提高图像的分类效果,通过变分推断的方式将类内方差分布从基本集合转移到新集合中。实验结果表明,在具有挑战性的细粒度少样本图像分类基准上,该方法在状态-of-the-art的方法上有明显提升。
Oct, 2020
本文提出了一种在潜在空间中将few-shot分类问题重新表述为重建问题的方法。通过从给定类别的支持特征到查询特征的直接回归,无需引入新的模块或大规模可学习参数,我们引入了一种新的机制进行Few-shot分类,该机制被称为特征映射重建网络,它比以前的方法更有效和更高效。我们在四种细粒度基准测试和两种非细粒度基准测试上验证了这个方法的一致和显著的准确性增益。
Dec, 2020
提出了一种基于图形的对象表示来消除姿态变化,实现自我监督的姿态对齐,同时还结合粗到细的监督和浅到深的子网络的提议的姿态不敏感限制,以逐步学习的方式鼓励网络产生区分性特征,已成功应用于三项流行的细粒度物体分类基准中,达到了最先进水平。
Mar, 2022
通过将输入样本分割成补丁,并借助Vision Transformers对其进行编码,从而在图像的局部区域之间建立语义对应关系,而不受其各自类别的影响。利用掩蔽图像建模等方法进行无监督训练,以克服标签不够精细以及避免负面的图像级注释影响,实现了对数据的更一般的统计结构的学习,并在四个流行的Few-shot分类基准测试中,对于5-shot和1-shot情形均取得了新的最优结果。
Jun, 2022