ICMLJun, 2021
从有条件的归一化流中提取知识
Distilling the Knowledge from Conditional Normalizing Flows
Dmitry Baranchuk, Vladimir Aliev, Artem Babenko
TL;DR本研究通过提出一种简单的蒸馏方法,证明了在图像超分辨率和语音合成领域,可以将基于流的模型提炼为更高效的替代模型。
Abstract
normalizing flows are a powerful class of generative models demonstrating
strong performance in several speech and vision problems. In contrast to other
→
发现论文,激发创造
离散序列的潜在正则化流
提出了一种基于 VAE 的生成模型,该模型联合训练了基于正则化流的潜在空间分布和到观察到的离散空间的随机映射,解决了直接对离散序列应用正则化流所面临的挑战,并具有可比拟的性能和流灵活性。
Jan, 2019
正规流:当前方法的介绍与评述
本文综述了 Normalizing Flows 在分布学习中的构建和使用,旨在提供模型的背景和解释,回顾现有的最新文献,并确定未来可行的有前途的方向和未解决的问题。
Aug, 2019
自由形式流动:使任何架构成为标准化流量
我们通过使用梯度的有效估计器来克服了正规化流设计受到解析可逆性需求的约束,并实现了任意保持维度的神经网络作为最大似然训练的生成模型,在分子生成基准测试中取得了出色的结果,同时采用现成的 ResNet 架构在一个反问题基准测试中具有竞争力。
Oct, 2023
概率建模与推理的正则化流
本文综述了正则流动的研究现状,通过概率建模和推断的视角,分析了其表达能力、计算权衡等基础原理,并将其与更一般的概率转换联系起来,总结了其在生成建模、近似推断和监督学习等任务中的应用。
Dec, 2019
正则化流中深度和条件化的表征特征
本文研究了对于对数几率模型的归一化流表示,主要关注模型深度和分区选择实现上的困难。结果表明,每个分区仅需 Theta (1) 个仿射耦合层就足以精确表示排列或者 1*1 的卷积,同时也被证明具有较好的普适性。同时我们也展示了对于少量神经元元素和有限 Lipschitz 常数的流构架的深度下限。
Oct, 2020
基于正向传播的工业时间序列数据新颖性检测方法
Flow-based deep generative models can be used for novelty detection in time series data and outperform traditional methods like the Local Outlier Factor.
Jun, 2019