SCHA-VAE: 面向少量样本生成的分层上下文聚合
通过开发一类深度生成模型,结合深度学习的表示能力和贝叶斯推理的推理能力,我们开发了一类具有一次性泛化能力的机器学习系统,并在三个任务上展示了其能力:无条件采样、生成给定概念的新实例、以及生成一组概念的新实例,所有这些情况下我们的模型只需看到一次新的例子即可生成引人入胜且多样化的样本,这为单次机器学习提供了一类重要的通用模型。
Mar, 2016
本文介绍了一种基于生成模型和神经网络的图像合成方法,利用梯度上升法在生成器网络的潜在空间中最大化分类器网络中一个或多个神经元的激活,通过引入对潜在空间的先验分布来提高样本质量和多样性,并称之为“Plug and Play Generative Networks”,该方法可用于各类数据且在图像分类和生成方面具有先进性。
Nov, 2016
本文介绍了一种基于深度生成模型的架构,该架构在训练过程中使用多层的潜在变量,并且在所有潜在变量和输出之间包括确定性路径,以及提供了一组更丰富的连接,这些连接在推理和生成计算之间实现了更有效的信息通信。我们在重构分布中引入了轻量级自回归模型以提高自然图像的性能。实验表明,我们的方法在标准图像建模基准测试中达到了最先进的性能,并且在没有标签信息的情况下可以暴露潜在的类结构,同时可以提供自然图像中被遮挡区域的令人信服的估计。
Dec, 2016
提出了一种基于无监督多视图生成模型的条件变体,可在高维空间中生成各种物体的逼真样本,相比于其他条件生成方法,我们不会对变差因素做任何假设,不需要视图的监督。
Nov, 2017
本论文提出了一个利用深度生成模型进行类预测的研究方法,不同于其他类似方法依赖于语义嵌入,我们基于属性条件设计了特定于类别的潜在空间分布,并利用这些潜在空间分布作为监督变分自编码器的先验,使其有更强的区分特征表达能力;同时通过无监督学习利用未标记的未见类别数据进行半监督 / 转导学习,并在少样本学习下与现有方法进行了对比测试。
Nov, 2017
研究了从黑盒生成模型而不是数据直接学习通用视觉表达式的设置,通过该生成器的样本输出训练,比较了几种可应用于该设置的表征学习方法,使用生成器的潜空间来生成相同语义内容的多个“视图”,表明多视图数据可以自然地用于识别正面对和负面对。
Jun, 2021
深度生成模型在有限数据的图像合成领域取得了显著进展,本文填补了这一领域中问题定义、已有文献的优缺点及限制的系统调查的空白,并提供了详细的问题分类、解决方案、流行基准和未来方向的综合综述。
Jul, 2023
本文提出一种新颖的方法,利用文本统计数据预测每个类别的视觉特征分布的均值和协方差,从而丰富潜在空间,提高鲁棒性和泛化能力,在各种数据集上改进了少样本分类性能。
Nov, 2023
该研究解决了现有少样本学习多集中于单一模态的问题,提出了跨模态少样本学习(CFSL)任务,以应对仅有少量标记样本时的多模态数据识别挑战。通过提出的生成转移学习(GTL)框架,研究显示该方法在多个多模态数据集上表现优越,能够从丰富的单模态数据中提取潜在概念,并有效推广至未见模态,展现出类人认知的能力。
Oct, 2024