本文介绍了一种对称的对齐机制,用于学习从极少的例子中获取更广义的视觉概念的方法。实验结果表明,该方法是通用的,并提供了一个强大的基准。
Oct, 2022
本研究关注于使用额外语义信息以便在少量样本时进行图像分类,研究表明组合多种语义信息可以带来更好的效果。
Jun, 2019
该研究提出了一种基于语义提示的适应性视觉特征提取方法,通过在空间和通道维度插入语义提示来提高视觉特征提取器的处理能力,从而在极少量的支持样本下,实现更好的类别特定特征捕捉和更广泛的图像表示。
Mar, 2023
本文提出了一种基于内部语义关系的交互心理测量学方法,旨在解决少样本图像分类问题中标签监督性与复杂概念关系不兼容的挑战性场景,实验结果表明我们的方法在 CIFAR-100 数据集上有很好的表现以及优越性。
Dec, 2021
本篇论文对语义分割中的 Few-Shot Learning 进行了概述,提出了新的分类法,并描述了当前的局限性和展望。
Apr, 2023
通过语言信息进行语言指导的少样本语义分割,使用视觉 - 语言预训练模型和遮罩优化来生成高质量伪语义遮罩,引入分布式原型监督方法和互补相关匹配模块来指导模型挖掘支持和查询图像的精确语义关系。在两个基准数据集上的实验表明,我们的方法为语言指导的少样本语义分割建立了新的基准,并达到了与最近的视觉指导方法竞争的结果。
Nov, 2023
本文提出了一种基于对比学习的新的 few-shot learning 框架,通过预训练语言模型解决视觉特征与文本嵌入之间的对齐问题,并引入度量模块来实现余弦相似度的泛化,通过双层优化结构中的 MAML 训练模型以提高可迁移性,此外,在多个基准测试上进行了大量实验证明我们方法的有效性。
Jul, 2023
本文提出了一种基于语义概念空间的单次学习方法,利用自动编码器网络将深度卷积神经网络中的多层视觉特征映射到语义向量,并在语义空间中搜索相关概念,在图像特征空间中生成复杂的增强特征分布以实现更好的一次学习性能。
Apr, 2018
通过将输入样本分割成补丁,并借助 Vision Transformers 对其进行编码,从而在图像的局部区域之间建立语义对应关系,而不受其各自类别的影响。利用掩蔽图像建模等方法进行无监督训练,以克服标签不够精细以及避免负面的图像级注释影响,实现了对数据的更一般的统计结构的学习,并在四个流行的 Few-shot 分类基准测试中,对于 5-shot 和 1-shot 情形均取得了新的最优结果。
Jun, 2022
利用少量的『类别级别』的语言描述,结合视觉特征分形成一个瓶颈视觉特征 (混合原型) 并建立一种 Transformer 机制,以编码这两种形式的丰富语义,并且经过多个数据集的实验证明,该算法能有效提升 few-shot learning 的性能。
Apr, 2021