双层双变分学习用于基于能量的潜变量模型
本文提出了一种称为 BiSM 的方法,通过将 Score matching 作为双层优化问题重新定义,引入变分后验概率来优化修改后的 SM 目标函数,并且通过优化变分后验概率来拟合真实后验概率,从而可有效学习具有一般结构的能量基于隐变量的模型,在通过梯度展开实现的随机优化算法的辅助下,BiSM 可以用于生成自然图像的复杂 EBLVM。
Oct, 2020
本文提出一种联合训练方法,从而学习变分自动编码器(VAE)和潜在基于能量模型(EBM)。该联合训练方法基于一个客观函数,其中包括三个关于潜空间和图像的共同分布的 Kulback-Leibler 分歧,从而无缝集成多样化和对抗性学习。实验表明,这种联合训练极大地提高了 VAE 的综合质量,也使得学习能够检测异常的能量函数成为可能。
Jun, 2020
本文提出了一种基于对比学习的框架,通过引入对比潜变量来改进能量基模型的训练,设计一种新类的潜变量 EBMs 实现数据联合密度估计和对比潜变量的联合训练,实验结果表明该方案比现有的 EBM 方法(如变分自动编码器或扩散技术)具有更低的 FID 分数,训练速度更快、内存效率更高,并展示了该潜变量 EBMs 的条件和组合生成能力。
Mar, 2023
本文提出了一种基于能量的模型 (EBM) 方法,通过在所有层的潜在变量上建立联合潜在空间 EBM 先验模型,以层内能量项捕捉每一层的内部上下文关系,跨不同层的潜在变量则通过联合校正。并提出联合训练方案 (最大似然估计 MLE 和基于推理模型的变分训练方案),使得学到的模型可以在生成高质量图像和捕捉分层特征方面具有表现力和更好的异常检测效果。
Jun, 2023
该论文研究了深度生成模型在有效的无监督学习中的应用,提出了 VGAN 模型,通过最小化能量密度函数的负对数似然的变分下界,使得模型能够用 Variational Distribution 进行采样,从而可以更方便地训练模型。
Nov, 2016
本文提出了一种双向边界的 Energy-based model 对数似然的优化方法,并且使用 Jacobi-determinant 的新估计器来评估这种边界,从而提高密度估计和样本生成的质量。
Nov, 2021
本文研究多层生成模型在学习分层表示中的基本问题,并提出了一种联合潜在空间的基于能量的模型,通过多层潜在变量实现了有效的分层表示学习,并对数据分布建模。
Oct, 2023
该论文提出了一种新的基于扩散模型与潜空间 EBM 的符号学方法,该方法结合了基于几何聚类的正则化与信息瓶颈,从而在解释性文本建模方面表现出比强大对手更优异的性能。
Jun, 2022
这项工作研究了基于能量的先验模型和多层生成器模型的学习问题。我们使用扩散概率方案来缓解能量模型的采样负担,并促进能量模型的学习,在各种具有挑战性的任务中展示出卓越的性能。
May, 2024
本文提出了一种新颖的能量校准生成模型,该模型利用条件 EBM 来增强变分自动编码器(VAEs)的性能,针对 VAEs 在生成方向上训练不足而导致生成结果模糊的问题,以及 EBMs 需要昂贵的马尔可夫链蒙特卡罗(MCMC)采样的问题,我们引入了条件 EBM 用于训练时校准生成方向,而不需要在测试时进行采样,这样的方法使得生成模型能够根据数据和校准样本进行自适应加权的训练,从而提高了效率和效果,而不需要在推理阶段进行 MCMC 采样,我们还展示了该方法可以扩展到校准归一化流和变分后验,并提出将该方法应用于基于神经传输先验和零射图像恢复,通过广泛的实验在图像生成和零射图像恢复等各种应用中证明了该方法的有效性,我们的方法在单步非对抗式生成方面展现了最先进的性能。
Nov, 2023