面向图零样本学习的属性传播网络
该研究提出了 Isometric Propagation Network(IPN),通过学习在语义空间和视觉空间内每个类别的表示之间的联系来解决零样本学习中的显着问题,并在三个流行的零样本学习基准测试中取得了最先进的表现。
Feb, 2021
本文提出一种新的传输零样本学习方法,该方法使用生成对抗网络从未见过的特征提取出语义属性,并将其融合到产生模型中,从而捕获未见类别内的细微差异,合成更具辨别能力的特征。在五个标准基准测试中,本方法取得了零样本学习的最新成果。
Mar, 2023
零样本学习是一种具有广泛应用前景的方法,该研究提出了使用元学习的属性自交互网络(MAIN)来解决零样本学习中的挑战,该方法能够在不使用未见过的类别属性的情况下实现超越最先进结果的性能提升,同时在训练速度上也比基于生成模型的方法快 100 倍以上。
Dec, 2023
本文提出了一种基于属性的无监督学习方法,通过学习将类别嵌入与属性耦合的关系模型,来自动预测未见过的类别与属性之间的关联,并支持跨数据集的属性传递。实验证明,该方法在 Animals with Attributes 和 aPascal/aYahoo 数据集上的性能优于现有方法。
Oct, 2016
通过集成属性局部化能力的图像表示,建议使用只有类别级别的属性来更好地将基于属性的知识从已知类别转移到未知类别,为此,提出了一种新的零样本表示学习框架,使用属性原型网络共同学习具有区分性全局和局部特征。对于三个零样本学习基准测试,我们的局部增强图像表示方法实现了一个新的最先进水平。
Aug, 2020
本研究提出了一种名为 ProtoProp 的原型传播图方法,用于解决在零样本学习中如何使用上下文线索进行分类的难题,本方法不依赖于任何外部数据,通过在给定数据集上的实验验证,我们证明了该方法优于现有技术的结果
Jun, 2021
提出一种基于属性本地化的图像表示学习框架,通过视觉语义嵌入层学习全局特征,并通过属性原型网络同时回归和解相关属性,为任意样本,包括零样本和少样本图像分类任务提供有益的属性知识转移,并引入变焦模块以局部化和裁剪信息区域鼓励网络显式地学习最有效的特征。此外,该模型通过视觉化和用户研究定量和定性评估属性本地化能力,并在三个基准测试中取得新的最优结果。
Apr, 2022
当前的广义零样本学习方法基于单一类别属性向量表示整个图像,这是对新颖类别识别过程的过度简化,因此图像的不同区域可能具有来自不同已见类别的属性并具有不同的主导属性。在此基础上,我们采用一种根本不同的方法:使用对属性信息敏感的预训练视觉语言检测器(VINVL)有效获取区域特征,然后使用学习到的函数将区域特征映射到区域特定属性注意力,并构建类别部件原型。我们在包含 CUB、SUN 和 AWA2 数据集的流行广义零样本学习基准测试中进行实验证明,我们提出的部件原型网络(PPN)与其他流行的基础模型相比取得了有希望的结果。相应的消融研究和分析表明,我们的方法在局部提案可用时具有明显的优势,且非常实用。
Apr, 2024
本论文提出了一种基于名称的无监督零样本学习方法,通过区别性地学习单词表示,使得类别和属性名称的相似性与视觉相似性相符,突破了传统零样本学习方法依赖属性特征标注的限制,并且能够在纯文本数据上进行训练,实验结果表明该方法在三个基准数据集上取得了最先进的性能。
May, 2017
本文介绍了一种名为 “双重渐进式原型网络(DPPN)” 的方法,用于解决广义零样本学习(GZSL)中的问题,包括域偏移问题、视觉代表性的跨域可转移性和类别可辨别性。DPPN 通过学习属性和类别的两种原型模式来构建视觉表征,从而逐渐提高属性定位准确性和类别区分度,并在四个基准测试上进行了验证。
Nov, 2021