利用少量数据进行学习是一项具有挑战性的计算机视觉任务,本文通过引入高质量的语义以及使用简单的网络结构,设计了一个名为 “语义进化” 的自动化方式来解决少样本学习中的问题,实验证明该方法在少样本分类任务中表现优异。
Nov, 2023
提出了一种考虑图像类别名称的少样本学习方法,利用 BERT 模型学习类别名称嵌入来分离视觉和文本特征,同时采用跨语言词向量对高维度 Bert 嵌入进行处理,实验结果表明该方法在少样本图像分类任务上取得了领先水平。
May, 2021
本文提出了一种新的对比学习框架,将其无缝地整合到预训练阶段和元训练阶段,以提高少样本分类的性能,并使用交叉视图的情节训练机制进行最近的质心分类,并采用基于距离缩放的对比损失。
Sep, 2022
本文提出了一种基于对比学习的新的 few-shot learning 框架,通过预训练语言模型解决视觉特征与文本嵌入之间的对齐问题,并引入度量模块来实现余弦相似度的泛化,通过双层优化结构中的 MAML 训练模型以提高可迁移性,此外,在多个基准测试上进行了大量实验证明我们方法的有效性。
Jul, 2023
本文探讨使用反差学习作为辅助训练目标来促进更通用和可转移的特征,在此基础上提出了一种基于注意力的空间反差目标来学习本地区分和类别不可知特征。通过大量实验证明了该方法优于最先进的方法,证实了学习良好、可转移的嵌入在 few-shot 学习中的重要性。
Dec, 2020
利用少量的『类别级别』的语言描述,结合视觉特征分形成一个瓶颈视觉特征 (混合原型) 并建立一种 Transformer 机制,以编码这两种形式的丰富语义,并且经过多个数据集的实验证明,该算法能有效提升 few-shot learning 的性能。
Apr, 2021
基于条件变分自编码器模型,使用语义嵌入生成视觉样本,通过训练生成具有代表性的样本来改善数据稀缺性问题,提升 few-shot 分类效果,实验结果表明我们提出的方法在 1-shot 和 5-shot 设置下在 miniImageNet 和 tieredImageNet 数据集上实现了最先进的性能。
May, 2022
本文提出了一种基于 facets 的自适应相似性度量方法,该方法可以被用于改进现有的基于度量的 few-shot learning 模型,并在 miniImageNet 和 CUB 数据集上实现了 state-of-the-art 的表现。
Feb, 2021
该研究提出了一种基于语义提示的适应性视觉特征提取方法,通过在空间和通道维度插入语义提示来提高视觉特征提取器的处理能力,从而在极少量的支持样本下,实现更好的类别特定特征捕捉和更广泛的图像表示。
Mar, 2023
我们介绍了一种创新的 FSCIL 框架,利用语言正则化器和子空间正则化器,该框架不仅能够使模型拥抱有限数据的新类别,还能确保对基础类别的性能保持,通过在基础训练阶段利用视觉 - 语言模型提取的语义信息和在增量训练阶段促进模型对图像和文本语义之间微妙连接的学习。
May, 2024