关键词variational auto-encoders
搜索结果 - 52
- 使用生成回放进行强化学习的连续状态表示学习
本研究针对建立连续学习中的状态表示模型问题展开讨论,为保留过去知识的同时高效压缩感知状态信息,我们提出了使用变分自编码器(Variational Auto-Encoders)作为状态表示,并基于生成样本的生成回放(Generative Re - ICML同胚变分自编码的探索
本文研究了流形值潜变量的使用,特别是连续可微的对称群(李群)的情况,展示了如何通过将再参数化技巧扩展到紧连李群来构造带有李群潜变量的变分自编码器,并通过实验展示了匹配潜在数据流形拓扑结构的流形值潜变量对于保留拓扑结构和学习良好的潜空间至关重 - 离散变分自编码器的直接最大化优化
本研究采用直接损失最小化方法,对可连续随机变量的变分自编码器进行重参数化以降低梯度估计的方差,我们将该方法自然地扩展到结构化离散潜在变量模型,并在无结构和有结构的离散潜在变量的变分自编码器中进行了实证检验。
- 哈密顿变分自编码器
利用 Hamiltonian Jacobian Estimation 实现了一个新的 Hamiltonian Variational Auto-Encoder(HVAE)模型,可以用于高效地进行变分自编码器模型训练,并构建目标受控的归一化流 - 生成音色空间:利用感知度量规则化变分自编码器
本文介绍如何使用 VAE 构建生成性音质空间,可以分析新的乐器,同时能够从该空间的任何点合成音频,并介绍了一种基于描述符的综合方法。
- 散射变换下基于对抗生成网络的反问题
本研究使用 Lipschitz 连续的 embedding 以及 wavelet Scattering transform 计算深度卷积生成网络,不需要被鉴别器或编码器优化,并且具有类似 GAN 或 VAE 的属性。
- 鲁棒局部线性可控嵌入
本文提出了一种新的方法 —— 学习具有鲁棒性的局部线性可控嵌入(RCE)模型,该模型可以直接估计给定当前观测下未来观测的预测条件密度,并引入瓶颈结构使得模型动力学具有鲁棒的可线性化特性,同时提出了一种有原则的变分近似方法,使得变分近似更加鲁 - ICLR视觉想象的生成模型
本文使用变分自动编码器来实现以视觉为基础的想象,并提出了新的训练目标和推理网络,并提出了可衡量视觉想象的分别代表正确性,覆盖率和组合性的评价指标,最后通过将方法应用于两种数据集进行详细比较。
- ICCVDeepCoder:用于自动面部动作编码的半参数变分自编码器
该研究提出了一种名为 DeepCoder 的半参数建模框架,将参数化(卷积)和非参数化 (序数 GPs) VAE 的建模能力结合起来,用于多层次任务层次结构的潜在表示和多个序数输出的分类的联合学习,该模型在 AU 强度估计的基准数据集上表现 - 使用扩张卷积改进的变分自编码器文本建模
本文研究利用扩张卷积神经网络的变分自编码器来进行文本生成。通过修改扩张网络的结构,作者在文本生成中获得卓越的性能,同时余下的部分介绍了使用该方法进行半监督学习和无监督标签任务的实验方法和结果。
- NIPS利用 Householder 流改进变分自编码器
本论文提出了一种基于 Householder 变换的体积保存流方法,改进了变分后验分布的灵活性并在 MNIST 数据集和组织病理学数据中获得了理想的结果。
- NIPSRényi 分歧变分推断
本文介绍了变分 Renyi 界限 (VR),它将传统的变分推理扩展到了 Renyi 的 Alpha - 散度。这种新型的变分方法统一了许多现有方法,并且通过参数化散度的 Alpha 值,实现了从证据下限到对数(边际)似然的平滑插值。采用重参