生成模型中的潜在遍历作为潜在流
本文提出了一种新的生成流家族,它可以改善表达能力而不会显著增加抽样和似然下界评估的计算成本,并且可以理论上证明所提出的流可以近似于哈密顿 ODE 作为一种通用的传输映射,在流模型建模的标准基准测试中表现出领先的性能。
Feb, 2020
流式因式分解表示学习是一个新颖的结构化表示学习视角,该模型通过动态最优输运的梯度场生成一组不同输入变换的潜在概率路径,并在标准表示学习基准上获得更高的似然度,同时接近于近似等变模型,具有鲁棒性和广泛适用性。
Sep, 2023
本文提出了一种新的方法,通过找到生成模型中有意义的方向来提高生成模型潜在空间的可解释性,从而精确地控制生成图像的特定属性,如位置或比例。该方法对于搜索编码生成图像的简单变换方向(如平移,缩放或颜色变化)特别适用,并在 GAN 和变分自动编码器模型的质量和量化方面得到了证明。
Jan, 2020
该论文旨在通过使用新的解缩深度生成模型,将时空图分解成空间,时间和图形因素以及解释它们之间相互作用的因素,并使用情报瓶颈理论来最大化这些因素之间的解缠,通过定性和定量实验,在合成和现实世界数据集上展示了该模型优于现有技术的表现。
Feb, 2022
提出了一个通过 spike-and-slab 受限玻尔兹曼机实现高阶交互来分离数据变异因素的新模型,与以往不同的是该模型不需要使用潜在因素的监督信息来训练,并在面部表情分类任务中展示了其效果。
Oct, 2012
通过测试不同的数据集和训练方法,我们发现,当生成模型的编码器无法将新颖的组合映射到正确的潜在空间区域时,它们会失败。而当生成模型能够成功时,要么测试条件没有排除足够的样本,要么排除的生成因素能够独立地影响生成图像的不同部分。基于这些结果,我们认为,要想正确地进行推广,生成模型不仅需要捕捉变异因素,而且还需要理解用于生成数据的生成过程的反演方式。
Apr, 2022
本文提出了一种深度生成模型的算法,结合静态数据集和动态模型,利用无监督的强化学习探索环境,在时间信息中进行表示学习,并成功地将学习到的表示迁移到视觉和强化学习任务中。
Oct, 2022
该论文介绍了在自然语言处理和机器学习中,为了提高模型性能和解释性,学习离散结构的方法。论文提出了三种主要的方法:代理梯度、连续松弛和基于采样的边缘似然最大化,最终总结了这些方法的应用和学习的潜在结构的检查。
Jan, 2022