- UDON: 通用动态在线蒸馏用于通用图像表示
UDON 是一种新的学习技术,利用多教师蒸馏将每个教师的特定领域知识传递给学生通用嵌入,通过采样技术动态分配培训批次以加快学习复杂领域的速度,并在最近的 UnED 基准测试中显著提高了性能。
- ICCV通往全能图像嵌入:一个针对通用图像表示的大规模数据集与挑战
该研究论文通过构建一个新的大规模公共基准数据集,评估了通用图像嵌入的性能,并通过实验证明,与单独训练每个领域的模型相比,现有方法和简单的扩展方法的性能较差。
- ICCV学习 Gabor 纹理特征进行细粒度识别
通过为特征提取引入 Gabor 滤波器作为有力工具来利用纹理特征,并将其与卷积神经网络(CNN)的语义分支相结合,实现全面的信息提取,从而在多个数据集上取得了最先进的性能。
- 多维度细化图卷积网络与健壮解耦损失用于细粒度基于骨架的动作识别
本文提出了一种灵活的注意力模块 CVSTA,可以提高时空关节的判别能力,进而构建了一种多维精细化的图卷积网络 MDR-GCN,加之结合了鲁棒分离损失函数 RDL,成功地提升了骨架动作识别的准确率。
- 基于显著性引导的少样本细粒度视觉识别互学习网络
本文提出了一种名为 SGML-Net 的框架,用于 few-shot 细粒度视觉识别。它通过利用显著性检测模型强调每个子类别的关键区域,提供了代表性学习的强大先验知识,并在互相学习的范式下实现了有效的转移。实证评估表明,所提出的方法具有优越 - CVPR精细视觉类别划分和物体再识别的双重交叉注意力学习
本文介绍了一种使用双重交叉 - 关注学习算法改进细粒度识别的方法,并通过全局 - 本地交叉关注和成对交叉关注等策略来提高自我关注机制的性能,从而使得注意力响应更加合理,能够发现更多互补的特征部位以提高识别精度。
- CVPRPatchNet: 一种基于精细化 Patch 识别的简易面部防欺骗框架
本文提出了 PatchNet 框架,通过对非扭曲的面部图像裁剪,识别由拍摄设备和陈列材料组成的细粒度面部图案,以加强对本地拍摄模式的区分学习,同时提出了新的分类和自监督相似度损失函数,并在多项测试数据上验证了该框架在面部反欺诈技术方面的优越 - ICCV基于网络监督的细粒度识别:基准数据集和方法
本文构建了两个新的基准网页监督的精细分类数据集 WebFG-496 和 WebiNat-5089,同时提出一种新的网页监督方法 Peer-learning,并在该数据集上进行了全面的实验。实验结果表明,该方法优于现有的基线模型和最先进的方法 - CVPR可微分的图像识别补丁选择
通过不可区分的 Top-K 算子选择图像中最相关的部分,以高效处理高分辨率图像。 该方法可以与任何下游神经网络接口,以灵活的方式聚合不同补丁的信息,并允许整个模型使用反向传播进行端到端训练。该结果适用于交通标志识别,补丁之间的关系推理以及在 - AAAI面向细粒度视觉分类的上下文感知注意池化 (CAP)
提出了一种基于上下文感知的注意力池化(CAP)方法和特征编码技术,可以有效地捕获子像素梯度,无需边界框和 / 或可区分的部分注释,从而学习关键部位的特征表示。经过在六个最先进的骨干网络和八个基准数据集上的评估,该方法在六个数据集上表现显著优 - AAAISnapMix:用于增广细粒度数据的语义比例混合
本文提出了一种基于类激活图(CAM)的新方案,名为 Semantically Proportional Mixing(SnapMix),以减少在增广精细数据时的标签噪声。与现有的基于混合的方法相比,实验证明我们的方法在多个数据集和不同网络深 - AdarGCN: 自适应聚合 GCN 用于少样本学习
提出了一种称为少样本少样本学习(Few-Shot Few-Shot Learning,FSFSL)的新型低数据训练设置,应用图卷积网络(GCN)和适应性聚合机制来解决原始和网络图像的有噪声和不相关图片的问题,以用于小样本学习任务。
- 测量数据集粒度
在该研究中,我们建立在聚类理论的基础上,提出了一种度量数据集粒度的框架,认为数据集的粒度不仅取决于数据样本和标签,还取决于我们选择的距离函数,我们评估了每种度量标准,并在具有分层标签的数据集上进行了实验。我们发现,细粒度数据集更难学习,更难 - AAAI细粒度识别:考虑相似类之间的细微差异
该论文提出了引入多样性块和梯度提升损失函数两个关键创新点的细粒度识别方法,来解决先前方法在查找亚类别差异性和识别混淆类别上的局限性。在五个挑战性数据集上的全面实验表明,该方法在所有五个数据集上都比使用类似实验方案的现有方法表现更优。
- AAAIDASZL: 零样本学习的动态动作签名
本文介绍了一种以动态行为标记的组合作为活动模型的精细识别方法,实现零样本活动识别,其中利用深度学习组件支持简单的一级状态机,此方法在多个实验范例下建立了新的业界标准,并扩展到视频零样本联合分割和分类的唯一框架,同时展示了无需额外训练即可在完 - 元强化的合成数据在一次性细粒度视觉识别中的应用
本文提出了一种元学习框架,将生成的图像与原始图像相结合,形成 “混合” 训练图像以提高一次性精细识别,在一些实验中,该模型相对基准表现出了一致的改进。
- ICCV空间 - 时间判别滤波器组的动作识别
本文提出一种改进卷积神经网络 (CNN) 网络的末层以提高动作识别的表征能力,通过对细节的敏感度提升,实现对 Kinetics-400 和 Something-Something-V1 数据集的最优表现。
- ICCV面向细粒度识别的地理感知网络
本文系统考察了在细粒度图像分类中,如何利用地理位置信息来提高分类准确性,通过发布两个带有地理位置信息的数据集,实验结果表明,使用地理位置信息可以将模型的准确性从 70.1% 提高到 79.0%。研究还发现,针对资源有限的模型,建议使用特征调 - CVPR从未修剪的视频中单时间戳监督的动作识别
使用单个时间戳代替昂贵的包含行动界限的监督信息,通过不断更新采样分布,进而使其收敛至判别性行动段的位置和范围,从而取得良好的视觉识别效果。
- ICLR学会注意力的繁殖报告
我们成功地在卷积神经网络中实现了 “学习关注” 的注意力机制模型,并在图像分类和细粒度识别方面复制了原始论文的结果。