能量基模型中的隐式生成和泛化
本文提出 Non-Generative EBM 方法作为一种有效的训练方法,可以在保持 EBM 中关键的稳定性和性能的同时,降低计算复杂度和开销。该方法能够大幅提高 CIFAR10 和 CIFAR100 数据集的预期校准误差。
Apr, 2023
本文提出了一种简单的方法来训练基于能量的模型(EBMs),并将其应用于半监督分类,方法利用熵正则化的生成器来分摊在 EBM 训练中通常使用的 MCMC 采样,这使得实验结果更快、稳定和可行。
Oct, 2020
本文介绍了基于能量的模型(EBMs)作为处理连续学习问题的一种有前途的模型,通过改变底层训练目标以避免对先前学习信息的干扰,提出了简单、高效且性能优良的 EBMs 版本,从多个基准测试中的表现来看,超越了基准方法。此外,本文还提出了基于对比散度的训练目标,可以与其他持续学习方法相结合,进一步提高性能。最后,本文还展示了 EBMs 适用于数据分布在没有显式任务的情况下发生改变这一更普遍的连续学习设置,这为未来的连续学习方法提供了有用的构建模块。
Nov, 2020
能量模型(EBMs)已成为生成模型领域中一个强大的框架,通过与统计力学的原理密切契合,提供了独特的视角。本综述旨在为物理学家提供对 EBMs 的全面理解,揭示它们与其他生成模型(如 GAN、VAEs 和正规化流)的联系。我们探讨了对 EBMs 至关重要的采样技术,包括 Markov Chain Monte Carlo(MCMC)方法,并将 EBM 概念与统计力学进行了对比,强调了能量函数和配分函数的重要性。此外,我们深入研究了 EBMs 的最新训练方法,涵盖了最近的进展及其对提高模型性能和效率的影响。本综述旨在阐明这些模型之间通常复杂的相互关系,这可能是因为从事该领域研究的各个学术界群体差异较大所导致的挑战。
Jun, 2024
本研究提出了一种流形能量模型(M-EBM),以提高 unconditional EBM 和 Joint Energy-based Model (JEM) 的整体性能,在众多基准数据集上均显着提高训练稳定性和速度,在有类标签的情况下,标签集成 M-EBM (M-JEM) 进一步提高了图像生成质量,FID 改善了 40% 以上,并且精度也有所提高。
Mar, 2023
本文介绍了通过引入扩散数据和使用增强采样算法,通过持续对比散度学习一种联合的能量基模型,称为扩散辅助 - EBM,来实现复杂的,多模态分布的准确采样和密度估计,并进行了 2D 和图像实验,证明了持续训练的 EBMs 可以同时实现长时间稳定性,后训练图像生成和卓越的异常检测。
Apr, 2023
通过在生成模型的潜在空间中学习基于能量的模型(EBM),从而使 EBM 成为先验模型,该模型建立在生成模型的自上而下网络之上。通过最大似然联合学习,可以同时学习潜在空间的 EBM 和自上而下网络,并涉及从潜在向量的先验和后验分布中进行短程 MCMC 采样。由于潜在空间的低维度和自上而下网络的表现力,简单的潜在空间 EBM 可以有效地捕捉数据中的规律,并且潜在空间中的 MCMC 采样效率高且混合良好,表现出良好的图像和文本生成和异常检测能力。
Jun, 2020
能量模型(EBM)是一种重要的概率模型,也被称为随机场和无向图模型。EBM 是非标准化的,与其他流行的自标准化概率模型(如隐马尔可夫模型(HMMs)、自回归模型、生成对抗网络(GANs)和变分自动编码器(VAEs))截然不同。近年来,由于在理论和算法方面取得了重大进展,EBM 不仅受到核心机器学习领域的越来越多的关注,而且还受到了语音、视觉、自然语言处理(NLP)等应用领域的关注。语音和语言的序列性质也带来了特殊的挑战,并需要与处理固定维度数据(如图像)有所不同的处理方法。因此,本文的目的是系统介绍能量基模型,包括算法进展和在语音和语言处理中的应用。首先,介绍了 EBM 的基础知识,包括经典模型、最近由神经网络参数化的模型、采样方法以及从经典学习算法到最先进算法的各种学习方法。然后,介绍了 EBM 在三种不同场景下的应用,即建模边际、条件和联合分布。1)用于语言建模的序列数据的 EBM 应用,其中主要关注的是序列本身的边际分布;2)用于建模给定观测序列条件分布的 EBM,在语音识别、序列标注和文本生成方面有应用;3)用于建模观测序列和目标序列的联合分布的 EBM 及其在半监督学习和校准自然语言理解方面的应用。
Mar, 2024