本文介绍一种名为 VAE-cFlow 的泛化零样本学习方法,使用了生成流模型和 VAE 技术,从语义描述生成可靠的视觉特征来识别已知和未知的类别,并在五个数据集上实现了最先进的 GZSL 结果。
Sep, 2020
通过多个条件仿射耦合层的流式生成框架来学习未知数据的生成,进一步避免语义空间中的结构混乱和生成时的偏移问题。在四个广义零样本学习基准数据集上进行广泛实验,GSMFlow 在 GZSL 上实现了最先进的性能。
Jul, 2022
该论文提出一种新型的双向嵌入式生成模型,通过信息瓶颈和不确定性估计等手段,实现图像和语义的有效对齐和映射,从而解决了零样本学习中的种种问题。
本文针对广义零样本学习任务,提出了一种新颖的语义分离框架,使用条件 VAE 将未见过的类别的视觉特征分解为与语义一致、不相关的潜在向量,并且通过相关性惩罚和关系网络确保两个分解表示之间的独立性和语义一致性。在四个广义零样本学习基准数据集上的实验表明,由该框架分离出的语义一致特征在规范化和广义零样本学习任务中更具普适性。
Jan, 2021
本研究提出了基于对生成对抗网络训练的新规则的多模态循环一致性语义兼容性的方法,可以用于合成更具代表性的视觉表示,从而在几个公开可用的数据集中展现出最佳的广义零样本学习分类结果。
Aug, 2018
使用生成对抗网络,提出了一种名为 LisGAN 的新方法,可以通过条件噪声直接生成未见过的特征。灵魂样本被引入生成式零样本学习中作为不变的一面,具有类别的元表示,并且通过联合部署两个分类器来实现粗分类和细分类,超过了现有方法的表现。
Apr, 2019
该论文提出了一种基于生成模型的零样本学习框架,在该框架中采用特征到特征翻译网络和条件生成器,通过交替反向传播学习,进一步提高了在不完整视觉特征条件下的零样本学习性能。
基于 CLIP 基类分类器的无数据零样本学习方法提出了一个通用框架,该框架包含三个主要组成部分:基于 vMF 分布建模基类数据的虚拟特征恢复、特征 - 语言输入调整以进一步对齐虚拟图像特征和文本特征、使用对齐后的特征训练条件生成模型,可以生成新类别的特征并实现更好的零样本泛化。在常用的五个广义 ZSL 基准和 11 个基类到新类别 ZSL 基准上进行了评估,结果显示了该方法的优越性和有效性。
Jan, 2024
本文提出了一种新颖的广义零样本学习(GZSL)方法,它对训练期间的未见图像和未见语义向量具有不可知性。通过提出一种视觉实例的低维嵌入来打破视觉 - 语义间隙,并借助一个新的视觉神谕来量化噪声语义数据的影响,以提高准确性。在一系列数据集上用图模型进行推理的实验结果显示,该方法在语义和视觉监督下均明显优于现有技术。
Nov, 2018
ZIGNeRF 是一种基于 Zero-shot GAN 反演和新颖的转换器进行图像生成的模型,其可以从单个输入图像生成多视图图像,分离对象与背景并实现 360 度旋转或深度和水平平移。
Jun, 2023