该论文提出一种基于语义自编码器的零样本学习方法,在编码器-解码器框架下,通过对编码-解码的自重建能力进行优化,从而使得模型更加泛化并可以在无训练数据的情况下预测新的未知类别。
Apr, 2017
该研究提出了一种新的零样本学习框架,并基于 Unseen Visual Data Synthesis 算法,利用语义属性有效地合成未见过的视觉特征,以解决实际应用中缺乏带标注样本的问题,并证实其能够显著提高现有技术水平。
May, 2017
提出一种大规模属性数据集(LAD),并对该数据集进行了监督学习和零样本学习任务的实验,试图解决零样本学习领域中现有数据集的缺陷和问题,为零样本学习提供更好的语义表征。
Apr, 2018
本文提出一种新的零样本学习模型(DIPL),其中引入一种域不变特征自重建任务并通过语义空间中超类的形成进一步对齐两个域,以解决转移学习中看不见的物体分类问题。我们的模型在大量试验中表现出优异的性能,优于现有技术方案。
Oct, 2018
通过引入视觉结构约束来提高零样本学习的泛化性能,从而减轻领域变化问题,实验证明这种新的方法可以带来显著的性能提升并实现最先进的结果。
Jan, 2019
本文提出了一种新的零样本学习方法——Semantically Aligned Bias Reducing (SABR) ZSL,旨在通过学习一个潜在空间来解决hubness问题,同时通过交叉验证和弱转移约束来减轻示例类别偏移问题,并在三个基准数据集上广泛实验证明,与现有的最先进算法相比,在传统和推广的ZSL设置下,性能显著提高了1.5-9%或2-14%。
Apr, 2019
本文提出了多种不同的零样本学习的算法,包括基于语义属性生成可视特征分类器的深度神经网络,以及一种能够使用未标记数据进行自校准的学习方法,并在所有ZSL设置的基准数据集上显著优于现有算法的大量实验结果表明。
Sep, 2019
本文提出一种新的传输零样本学习方法,该方法使用生成对抗网络从未见过的特征提取出语义属性,并将其融合到产生模型中,从而捕获未见类别内的细微差异,合成更具辨别能力的特征。在五个标准基准测试中,本方法取得了零样本学习的最新成果。
Mar, 2023
本文提出动态语义原型演化方法(DSP)以对齐经验预定义语义原型并使合成的视觉样本特征更接近真实样本特征,从而提高现有生成ZSL方法的性能。
Jun, 2023
通过创新性的编码器和组合损失函数,本论文介绍了一种双重策略来解决广义零样例学习中的泛化差距,并提出了一套新的评估指标,以更详细地评估结果的可信度和可复现性。
Dec, 2023