本文综述了正则流动的研究现状,通过概率建模和推断的视角,分析了其表达能力、计算权衡等基础原理,并将其与更一般的概率转换联系起来,总结了其在生成建模、近似推断和监督学习等任务中的应用。
Dec, 2019
本文综述了 Normalizing Flows 在分布学习中的构建和使用,旨在提供模型的背景和解释,回顾现有的最新文献,并确定未来可行的有前途的方向和未解决的问题。
Aug, 2019
本研究通过提出一种简单的蒸馏方法,证明了在图像超分辨率和语音合成领域,可以将基于流的模型提炼为更高效的替代模型。
Jun, 2021
我们通过使用梯度的有效估计器来克服了正规化流设计受到解析可逆性需求的约束,并实现了任意保持维度的神经网络作为最大似然训练的生成模型,在分子生成基准测试中取得了出色的结果,同时采用现成的 ResNet 架构在一个反问题基准测试中具有竞争力。
Oct, 2023
我们提出了一个新的理论框架,用于理解基于耦合的标准化流(如 RealNVP)的表达能力。我们的研究结果支持耦合架构具有表达性,并提供了选择耦合函数表达性的细致观点,弥合了实证结果与理论理解之间的差距。
Feb, 2024
提出了一种基于 VAE 的生成模型,该模型联合训练了基于正则化流的潜在空间分布和到观察到的离散空间的随机映射,解决了直接对离散序列应用正则化流所面临的挑战,并具有可比拟的性能和流灵活性。
Jan, 2019
通过结合其他生成模型类别的方面,如 VAEs 和基于分数的扩散,放宽了 NFs 的严格双射约束,从而实现了表达能力、训练速度、样本效率和似然可追踪性的平衡。
Sep, 2023
本文提出了一种新型、基于图的生成模型 —— 图可逆正则流,并尝试将其应用于监督学习和非监督学习任务中,与其他自回归模型相比表现良好且更适合于并行计算架构。
May, 2019
本文研究了对于对数几率模型的归一化流表示,主要关注模型深度和分区选择实现上的困难。结果表明,每个分区仅需 Theta (1) 个仿射耦合层就足以精确表示排列或者 1*1 的卷积,同时也被证明具有较好的普适性。同时我们也展示了对于少量神经元元素和有限 Lipschitz 常数的流构架的深度下限。
Oct, 2020
本研究介绍了一种名为 NIF 的流行有噪声映射模型,可以通过注入变换学习数据流形的降维表示,有效提高了样品质量和数据嵌入的可分性。
Jun, 2020