跨粒度少样本学习:结合视觉 - 语义元嵌入的粗 - 精伪标记
通过引入对比损失和学习算法,本研究提升了少样本分类任务中的细分子类别鉴别能力,实现了在嵌入空间中的潜在细粒度结构学习,并通过在标准小样本学习基准测试中的广泛试验验证了该方法的优越性。
Jul, 2021
利用少量数据进行学习是一项具有挑战性的计算机视觉任务,本文通过引入高质量的语义以及使用简单的网络结构,设计了一个名为 “语义进化” 的自动化方式来解决少样本学习中的问题,实验证明该方法在少样本分类任务中表现优异。
Nov, 2023
本研究提出了一种名为 “Pseudo-supervised Contrast (PsCo)” 的无监督元学习框架,可以在少样本分类任务中改进伪标签并以渐进方式构建多样化的任务,实验证明该框架在各种领域和跨领域的少样本分类基准测试中表现优异。
Mar, 2023
本文提出了一种端到端的可训练深度网络,旨在解决少样本下的细粒度图像识别问题。该网络包括双线性特征学习模块和分类器映射模块,前者将示例图像的区分信息编码为特征向量,后者映射中间特征到新类别的决策边界。我们在三个细粒度数据集上进行了实验,结果表明该方法优于竞争基线。
May, 2018
通过将输入样本分割成补丁,并借助 Vision Transformers 对其进行编码,从而在图像的局部区域之间建立语义对应关系,而不受其各自类别的影响。利用掩蔽图像建模等方法进行无监督训练,以克服标签不够精细以及避免负面的图像级注释影响,实现了对数据的更一般的统计结构的学习,并在四个流行的 Few-shot 分类基准测试中,对于 5-shot 和 1-shot 情形均取得了新的最优结果。
Jun, 2022
本文提出了一种自监督的原型传递学习方法 ProtoTransfer,旨在通过构建一个可以将未标记的样本和它们的增强聚类在一起的度量嵌入来预测少量标记数据的正确类别。我们在 mini-ImageNet 数据集上的少量样本分类任务中通过 ProtoTransfer 方法超越了最先进的无监督元学习方法。在存在领域偏移的少样本实验中,我们的方法甚至具有可比拟于监督方法的性能,但需要 orders of magnitude 较少的标签。
Jun, 2020
通过语言信息进行语言指导的少样本语义分割,使用视觉 - 语言预训练模型和遮罩优化来生成高质量伪语义遮罩,引入分布式原型监督方法和互补相关匹配模块来指导模型挖掘支持和查询图像的精确语义关系。在两个基准数据集上的实验表明,我们的方法为语言指导的少样本语义分割建立了新的基准,并达到了与最近的视觉指导方法竞争的结果。
Nov, 2023
该研究提出了一种基于元学习的新框架 MetaSegNet,通过全局和局部特征分支,在元学习中提取少样本语义分割的适当元知识,并将线性模型集成到 MetaSegNet 中,以实现一次性精确地多目标分割。实验结果表明,该方法在 K 路少样本语义分割任务中表现出良好的效果。
Nov, 2019