可交换数据的基于能量的处理
能量模型(EBM)是一种重要的概率模型,也被称为随机场和无向图模型。EBM 是非标准化的,与其他流行的自标准化概率模型(如隐马尔可夫模型(HMMs)、自回归模型、生成对抗网络(GANs)和变分自动编码器(VAEs))截然不同。近年来,由于在理论和算法方面取得了重大进展,EBM 不仅受到核心机器学习领域的越来越多的关注,而且还受到了语音、视觉、自然语言处理(NLP)等应用领域的关注。语音和语言的序列性质也带来了特殊的挑战,并需要与处理固定维度数据(如图像)有所不同的处理方法。因此,本文的目的是系统介绍能量基模型,包括算法进展和在语音和语言处理中的应用。首先,介绍了 EBM 的基础知识,包括经典模型、最近由神经网络参数化的模型、采样方法以及从经典学习算法到最先进算法的各种学习方法。然后,介绍了 EBM 在三种不同场景下的应用,即建模边际、条件和联合分布。1)用于语言建模的序列数据的 EBM 应用,其中主要关注的是序列本身的边际分布;2)用于建模给定观测序列条件分布的 EBM,在语音识别、序列标注和文本生成方面有应用;3)用于建模观测序列和目标序列的联合分布的 EBM 及其在半监督学习和校准自然语言理解方面的应用。
Mar, 2024
本文提供了能量基模型(EBMs)在逼近反向传播(BP)方面的综合理论,统一了预测编码、平衡传播和对比 Hebbian 学习等算法,从 EBMs 的自由相平衡这一简单而普遍的数学特性出发,在不同的能量函数下进行选择以得出一类逼近 BP 的算法。
May, 2022
本文介绍了一些在连续神经网络上训练 MCMC 的能量基础模型的技术,在许多高维度数据域上,如 ImageNet 和 CIFAR-10, 它们的样本表现优于其他可能性模型,并接近当代生成对抗网络 GAN 的表现,同时覆盖所有数据模态。此外,作者还阐述了基于 EBM 的独特能力,如组合性和损坏图像的重建和修复,最后证明 EBMs 模型是跨多种任务有用的模型,进而实现了最先进的超出分布分类、对抗性稳健分类、在线连续类学习和连续长期预测轨迹
Mar, 2019
本文提出一种名为 ALOE 的算法,该算法可以学习用于离散结构数据的有条件和无条件能量模型,其参数梯度使用模拟局部搜索的学习取样器进行估计,并且通过一种新的变分幂迭代形式有效地训练能量函数和取样器。实验结果表明,在软件测试等应用领域中,学习局部搜索可以取得显著的改进。
Nov, 2020
通过对 CIFAR-10 和 CIFAR-100 数据集的实验,我们的工作首次探索了 EBMs 对自然损坏和对抗攻击的稳健性,结果表明 EBMs 在白盒攻击、黑盒攻击和自然扰动方面的稳健性与经过对抗训练的 DNNs 相当,而无需牺牲清晰度准确性或使用额外的训练技术。
Jan, 2024
本文介绍了基于能量的模型(EBMs)作为处理连续学习问题的一种有前途的模型,通过改变底层训练目标以避免对先前学习信息的干扰,提出了简单、高效且性能优良的 EBMs 版本,从多个基准测试中的表现来看,超越了基准方法。此外,本文还提出了基于对比散度的训练目标,可以与其他持续学习方法相结合,进一步提高性能。最后,本文还展示了 EBMs 适用于数据分布在没有显式任务的情况下发生改变这一更普遍的连续学习设置,这为未来的连续学习方法提供了有用的构建模块。
Nov, 2020
本文介绍了一种新的可交换随机过程 —— 函数神经过程(FNPs),它们通过学习数据集中点的潜在表示的依赖关系图,对函数分布进行建模。作者在不明确设定潜在全局参数的先验分布的情况下,采用了对给定数据集的关系结构的先验分布来定义贝叶斯模型,并通过小批量优化提高了可扩展性。作者还展示了如何通过后验预测分布对新点进行预测,并在玩具回归和图像分类任务上实验评估了 FNPs,证明了相比采用全局潜在参数的基准模型,FNPs 不仅提供了竞争性的预测性能,而且更具鲁棒性的不确定性估计。
Jun, 2019
本文提出 Non-Generative EBM 方法作为一种有效的训练方法,可以在保持 EBM 中关键的稳定性和性能的同时,降低计算复杂度和开销。该方法能够大幅提高 CIFAR10 和 CIFAR100 数据集的预期校准误差。
Apr, 2023