该研究论文介绍了深度生成模型的数学框架及其最流行的三种方法:正态化流、变分自编码器和生成对抗网络。此外,该论文还探讨了这些基本方法的优缺点。
Mar, 2021
提出了一种名为 MemoryGAN 的全新 GAN 模型,该模型使用可学习的记忆网络来解决无监督 GAN 训练过程中存在的结构不连续和过度遗忘问题,并在多个数据集上进行了评估,证明其能够产生高度逼真的图像,实现了 CIFAR10 数据集上无监督 GAN 模型的最先进 Inception 得分。
Mar, 2018
本论文提出了最大间隔深度生成模型(mmDGMs),它利用最大间隔学习原理来提高深度生成模型的辨别力,同时保留了生成能力。实验结果表明,最大间隔学习可以显著提高深度生成模型的预测性能,同时保留生成能力。同时,通过使用深度卷积神经网络作为识别和生成模型,mmDGM 在 MNIST 和 SVHN 数据集上的表现与最先进的完全辨别网络相当竞争力。
Apr, 2015
介绍了一种基于神经突触可塑性的动态生成记忆模型,该模型在连续学习中实时调整神经网络架构,应用于视觉分类任务中,旨在解决老知识保留和模型容量扩展的问题。
Apr, 2019
本文提出了一种基于内部工作记忆模块的决策制定代理,可以通过存储、混合和检索信息来改善其在不同下游任务中的训练效率和泛化能力,并进一步证明记忆微调可以增强所提出架构的适应性。
May, 2023
通过为生成模型增加外部内存,我们将内存模块的输出解释为条件混合分布,在这种分布中读操作对应着从内存中采样并且取回对应的内容。这个视角允许我们使用变分推理在进行内存寻址,从而通过使用目标信息指导对内存查找的方法来有效训练我们的内存模块以增强生成模型。
Sep, 2017
提出了一种基于差分隐私的自编码生成模型和变分自编码生成模型,这些模型可以有效地保护深度学习的隐私,并且经过评估具有较强的鲁棒性。
Dec, 2018
该论文研究了深度生成模型中可能出现的记忆问题,提供了一种衡量记忆现象的方式,并探讨了限制记忆的几种策略。
Jun, 2021
本研究提出了一种基于分层原型模型和层次内存的神经记忆方法,该方法能够在领域转移的情况下,灵活地依赖不同语义层面的特征来适应新任务,而数据驱动的学习方法进一步可以使模型自适应地选择最具通用性的特征。该方法通过大量消融实验验证了性能的显著提升,尤其在跨领域和少样本分类方面表现出了显著优势。
Dec, 2021
该研究旨在开发一种新型的计算机架构,将内存增强神经网络(MANN)与计算存储器单元相结合,以实现在高维向量上的模拟内存计算,并使用基于内容的注意机制来处理此计算存储器单元上的数据,并在 Omniglot 数据集上展示出良好的性能来完成少样本图像分类任务。
Oct, 2020