使用联合潜在空间能量先验学习层次特征
本文提出了一种层次非参数变分自编码器模型,以结合树状结构的贝叶斯非参数先验和变分自编码器来实现无限灵活性的潜在表征空间,进而在视频表征学习上取得更好的效果。
Mar, 2017
本文提出一种联合训练方法,从而学习变分自动编码器(VAE)和潜在基于能量模型(EBM)。该联合训练方法基于一个客观函数,其中包括三个关于潜空间和图像的共同分布的 Kulback-Leibler 分歧,从而无缝集成多样化和对抗性学习。实验表明,这种联合训练极大地提高了 VAE 的综合质量,也使得学习能够检测异常的能量函数成为可能。
Jun, 2020
通过在生成模型的潜在空间中学习基于能量的模型(EBM),从而使EBM成为先验模型,该模型建立在生成模型的自上而下网络之上。通过最大似然联合学习,可以同时学习潜在空间的EBM和自上而下网络,并涉及从潜在向量的先验和后验分布中进行短程MCMC采样。由于潜在空间的低维度和自上而下网络的表现力,简单的潜在空间EBM可以有效地捕捉数据中的规律,并且潜在空间中的MCMC采样效率高且混合良好,表现出良好的图像和文本生成和异常检测能力。
Jun, 2020
该研究提出了一种基于潜空间的能量先验模型,用于文本生成和分类,通过潜空间耦合能够在无监督或半监督的情况下提高信息的提取,并且在实验中表现出高质量、多样性和可解释性的生成文本以及有效分类。
Aug, 2021
该论文提出了一种新的基于扩散模型与潜空间EBM的符号学方法,该方法结合了基于几何聚类的正则化与信息瓶颈,从而在解释性文本建模方面表现出比强大对手更优异的性能。
Jun, 2022
本文提出了一种基于对比学习的框架,通过引入对比潜变量来改进能量基模型的训练,设计一种新类的潜变量EBMs实现数据联合密度估计和对比潜变量的联合训练,实验结果表明该方案比现有的EBM方法(如变分自动编码器或扩散技术)具有更低的FID分数,训练速度更快、内存效率更高,并展示了该潜变量EBMs的条件和组合生成能力。
Mar, 2023
本文提出了一种基于能量的模型(EBM)方法,通过在所有层的潜在变量上建立联合潜在空间EBM先验模型,以层内能量项捕捉每一层的内部上下文关系,跨不同层的潜在变量则通过联合校正。并提出联合训练方案(最大似然估计MLE和基于推理模型的变分训练方案),使得学到的模型可以在生成高质量图像和捕捉分层特征方面具有表现力和更好的异常检测效果。
Jun, 2023
Bayesian脑理论探讨了大脑采用生成模型来理解外界世界。本研究提出了分层指数族能量模型(HEE模型),用于捕捉推断和学习的动态。通过将分区函数分解为个别层,并利用一组具有较短时间常数的神经元来采样分解归一化项的梯度,我们的模型能够同时估计分区函数并执行推断,避免了常规能量模型中遇到的负相位问题。此外,我们展示神经适应可以作为动量项,显著加快推断过程,以适应大脑的快速计算。在自然图像数据集上,我们的模型展示出与生物视觉系统中观察到的相似表示。此外,对于机器学习社区,我们的模型可以通过联合或边缘生成产生观测数据。我们表明边缘生成优于联合生成,并且与其他能量模型的表现相当。
Oct, 2023
这项工作研究了基于能量的先验模型和多层生成器模型的学习问题。我们使用扩散概率方案来缓解能量模型的采样负担,并促进能量模型的学习,在各种具有挑战性的任务中展示出卓越的性能。
May, 2024
本研究针对现有多模态生成模型在信息捕捉上的局限性,提出了一种将能量模型(EBM)与多模态潜在生成模型相结合的新框架。该框架通过变分方法联动训练,提高了先验模型的表现力和信息捕捉能力,实验结果证明了其在生成一致性上的优越性。
Sep, 2024