提出了一种基于 VAE 的生成模型,该模型联合训练了基于正则化流的潜在空间分布和到观察到的离散空间的随机映射,解决了直接对离散序列应用正则化流所面临的挑战,并具有可比拟的性能和流灵活性。
Jan, 2019
开发了一种不需要连续嵌入的离散分布的变分流,称为 MAD Mix,通过测量保持和离散可逆映射来生成离散目标的可靠逼近,并且比连续嵌入的流训练速度显著更快。
Aug, 2023
本文探讨了 normalizing flows 模型在离散分布上的应用,提出了可以推广到离散事件的离散流模型。其中考虑了离散自回归流和离散二部流模型, 并应用于语言模型中。实验证明于离散分布上离散自回归流优于自回归基线模型,在字符级别的语言建模上离散二部流可以与自回归基线模型竞争。
May, 2019
Flow-based deep generative models can be used for novelty detection in time series data and outperform traditional methods like the Local Outlier Factor.
Jun, 2019
该研究论文介绍了一种基于神经网络和正则化流的灵活变分后验分布逼近方法,提出了一种名为 ConvFlow 的新型正则化流方法,并证明了其在合成和实际问题中的有效性和效率。
Nov, 2017
使用实值非体积保持变换的无监督学习算法能够解决机器学习中的概率模型,模型具有可解的学习、采样、推理和评估能力,并且拥有一个可解释的潜在空间,我们在四个数据集上通过采样、对数似然度量和潜在变量操作展示了其建模自然图像的能力。
May, 2016
DDNF 模型是一种基于普通微分方程 (ODE) 和递归神经网络 (RNN) 的正则差分流模型,具有高效的似然度评估和柔性的密度估计能力, 是一种具有竞争力的新型神经密度估计技术,还可以在 Riemannian 半群中扩展。
Oct, 2018
通过结合其他生成模型类别的方面,如 VAEs 和基于分数的扩散,放宽了 NFs 的严格双射约束,从而实现了表达能力、训练速度、样本效率和似然可追踪性的平衡。
Sep, 2023
该文研究了通过交叉单元耦合和密集连接等方法增强正常化流模型表达能力并提高密度估计精度的问题。
Jun, 2021
本文介绍基于单调分段函数有理二次样条的神经模型流,在保持解析可逆性的同时提高了耦合和自回归变换的灵活性,并展示了神经样条流在密度估计、变分推断和图像生成建模中的相对表现优良。