通过同时生成和学习实现零样本学习
本论文提出了一个利用深度生成模型进行类预测的研究方法,不同于其他类似方法依赖于语义嵌入,我们基于属性条件设计了特定于类别的潜在空间分布,并利用这些潜在空间分布作为监督变分自编码器的先验,使其有更强的区分特征表达能力;同时通过无监督学习利用未标记的未见类别数据进行半监督 / 转导学习,并在少样本学习下与现有方法进行了对比测试。
Nov, 2017
针对非离散训练和测试类别的广义零样本学习,本文提出了一种基于变分自编码器的生成性框架,该框架包括概率编码器和概率条件解码器。通过一个反馈机制,研究者用一个发生器生成来自已知 / 未知类别的新样本,然后将这些样本用于训练任何现成的分类模型。本文的模型在广义零样本学习方案中,可以从未知类别生成样本来训练模型,从而减少对已知类别的偏见。在多个基准数据集上的实验结果表明,相比多个最先进方法,本文的模型表现更好。
Dec, 2017
通过使用生成对抗网络(GAN)生成未见类别的语义嵌入辅助数据点,结合传统训练数据,利用模型选择机制使得泛零样本学习可以分为两个不相交的分类任务,以减少不平衡的数据分布,从而获得最先进的结果。
Nov, 2018
本文研究了广义零样学习问题,提出了一种新的模型联合了三种不同的方法:视觉 -> 语义映射,语义 -> 视觉映射和度量学习,并且将它们统一在一个框架内,最终的实验结果表明该模型不仅在分类已知类别的图像上具有较高的准确性,而且在分类未知类别的图像上性能也比现有的最先进模型要更好。
Nov, 2018
该研究提出使用生成对抗网络(GAN)来 “合成” 零样本类别的 CNN(卷积神经网络)特征,从而应对通用零样本学习任务中已有的数据不平衡问题。实验结果表明,该方法在多个数据集上的表现均显著优于现有方法。
Dec, 2017
本文提出了一种新的零样本学习模型,利用语义嵌入空间中的聚类结构来对已知对象的类别语义描述和示例进行建模,并通过训练多个基于核的回归器来实现语义表示 - 范例对的结构约束,从而在包括 ImageNet 数据集在内的标准基准数据集上显着优于现有的零样本学习方法。
May, 2016
提出一种新的框架,利用双重变分自编码器和三元组损失学习区分性潜在特征,并应用基于熵的校准来最小化见和未见类之间重叠区域的不确定性,在六个基准数据集上进行的实验表明,该方法胜过现有的最先进方法。
Jan, 2021
本研究提出了一种基于语义一致性的零样本学习框架,在训练、特征合成和分类的所有阶段都强制执行语义一致性,并采用反馈循环来迭代地优化生成的特征,实验证明该方法在六个零样本学习基准任务上表现优异。
Mar, 2020
本篇论文研究了利用标签信息、属性以及关系图加强零样本学习和广义零样本学习,基于这个方法,本文在 CUB 和 SUN 数据集上取得了比强基线更好的结果。
Oct, 2020