通过双 MCMC 教学学习基于能量的模型
本文研究了训练基于能量的模型(EBMs)的最大似然估计方法,通过确定性梯度下降 ODE 解法替换 Langevin 动力学以了解该训练过程,并将动力学视为生成器模型并通过优化由能量确定生成器的梯度定义的评论家来连接 GAN,因此提出了自对抗损失。研究表明,EBM 训练实际上是一种自对抗性的过程,而不是最大似然估计。
Feb, 2021
通过学习用于初始化 MCMC 的变分自编码器,实现了宏观的 EBM 采样,并将其与 EBM 和变分自编码器一起使用以生成样本和解决条件生成任务。
Dec, 2020
通过在生成模型的潜在空间中学习基于能量的模型(EBM),从而使 EBM 成为先验模型,该模型建立在生成模型的自上而下网络之上。通过最大似然联合学习,可以同时学习潜在空间的 EBM 和自上而下网络,并涉及从潜在向量的先验和后验分布中进行短程 MCMC 采样。由于潜在空间的低维度和自上而下网络的表现力,简单的潜在空间 EBM 可以有效地捕捉数据中的规律,并且潜在空间中的 MCMC 采样效率高且混合良好,表现出良好的图像和文本生成和异常检测能力。
Jun, 2020
本文介绍了通过引入扩散数据和使用增强采样算法,通过持续对比散度学习一种联合的能量基模型,称为扩散辅助 - EBM,来实现复杂的,多模态分布的准确采样和密度估计,并进行了 2D 和图像实验,证明了持续训练的 EBMs 可以同时实现长时间稳定性,后训练图像生成和卓越的异常检测。
Apr, 2023
本文提出了一种基于能量的模型 (EBM) 方法,通过在所有层的潜在变量上建立联合潜在空间 EBM 先验模型,以层内能量项捕捉每一层的内部上下文关系,跨不同层的潜在变量则通过联合校正。并提出联合训练方案 (最大似然估计 MLE 和基于推理模型的变分训练方案),使得学到的模型可以在生成高质量图像和捕捉分层特征方面具有表现力和更好的异常检测效果。
Jun, 2023
本文提出了一种简单的方法来训练基于能量的模型(EBMs),并将其应用于半监督分类,方法利用熵正则化的生成器来分摊在 EBM 训练中通常使用的 MCMC 采样,这使得实验结果更快、稳定和可行。
Oct, 2020
本文研究了使用 MCMC 学习能量模型(EBM)中的一个有趣现象。我们将非收敛、不混合、不持久的短程 MCMC 作为学习非收敛器模型或流模型,在生成实例后,我们将按照最大似然学习梯度来更新模型参数,就好像合成实例是从当前模型中公平地抽样一样。此外,我们还展示了学习的短程 MCMC 能够生成逼真的图像,并且与传统的 EBM 或 MCMC 不同,学习的短程 MCMC 能够重新构建观察图像并在图像之间插值,就像生成器或流模型一样。
Apr, 2019
本文介绍了一种基于扩散的摊销方法来解决长期 MCMC 采样问题,并基于此开发了一种新的学习算法,用于隐空间 EBM。实验证明,与强对手相比,我们的方法在几个图像建模基准数据集上具有优秀的性能。
Oct, 2023
本文研究了 Markov 链蒙特卡罗采样在无监督最大似然学习中的效果,发现使用 ConvNet 势函数训练的最小框架可以实现高质量的短时合成,同时使用正确的 Langevin 噪声调整可以实现长时稳定采样;但使用收敛困难的 MCMC 训练 ConvNet 将导致样本失真。
Mar, 2019