斯坦神经采样器
我们提出了一种简单的算法,用于训练随机神经网络从给定的目标分布中绘制样本,以进行概率推断。我们的方法基于按照 Stein 变分梯度方向(Liu & Wang,2016)调整神经网络参数,从而最大程度地减少与目标分布的 KL 散度。这种方法适用于任何由其未归一化密度函数指定的目标分布,并且可以训练任何可微分的参数结构。我们用许多应用程序演示了我们的方法,包括具有表现力编码器的可变分自编码器(VAE)以建模复杂的潜在空间结构,以及 MCMC 采样器的超参数学习,这允许贝叶斯推断在看到更多数据时自适应地改善。
Jul, 2017
我们提出了一种评估和训练非归一化密度模型的新方法,该方法仅需要访问非归一化模型的对数密度的梯度,并使用神经网络参数化数据的向量函数 q (x),通过估算数据密度 p (x) 与模型密度 q (x) 之间的 Stein 差异来进行模型拟合和拟合度检验,这种方法在高维数据上表现出更好的性能和可扩展性。
Feb, 2020
本文提出了一种高效可扩展的神经隐式采样器,它通过利用神经转换将易于采样的潜在向量直接映射到目标样本,而无需迭代过程,从而实现低计算成本生成大批量样本,此外,本文还引入了 KL 训练方法和 Fisher 训练方法来有效地优化了所提出神经隐式采样器以捕获所需的目标分布。
Jun, 2023
本研究介绍了一种新的粒子演化采样器,适用于约束域和非欧几里德几何。使用 Stein Variational Mirror Descent 和 Mirrored Stein Variational Gradient Descent 定义一个镜像映射,在双重空间中演化粒子,通过最小化 KL 散度到约束目标分布。 Stein Variational Natural Gradient 利用非欧几里德几何更高效地最小化 KL 散度到无约束目标。通过引入首次开发的一类镜像 Stein 算子和自适应内核来推导这些采样器。证明了这些新的采样器在单纯形上可以精确地逼近分布,在后选择推断中提供有效的置信区间,并且在大规模无约束后验推断中比以前的方法更快地收敛。最后,在目标分布上的可验证条件下,我们建立了我们的新程序的收敛性。
Jun, 2021
我们引入了一种概率分布和高效的采样算法来处理神经网络中的权重和偏差参数,通过玩具模型和实际数据集的实验,证明了我们构造的采样网络是普适逼近器,并且采样框架对于输入数据的缩放和旋转是不变的,这意味着许多流行的预处理技术不再需要。
Jun, 2023
本论文提出了一种利用随机神经网络训练概率推理目标分布的简单算法,该方法基于 Stein 变分梯度迭代地适应神经网络参数,并将输出沿着与目标分布 KL 散度最大程度下降的 Stein 变分梯度变化,可适用于任何由未归一化密度函数指定的目标分布,并且可以训练任何针对我们想要适应的参数可微不可微黑盒结构。作为我们方法的应用,我们提出了一种用于训练深度能量模型的分摊极大似然估计算法,其中自适应地训练神经采样器来近似似然函数。我们的方法模仿深度能量模型和神经采样器之间的对抗游戏,并获得与最先进结果竞争的逼真图像。
Nov, 2016
通过结合 Stein 方法和 MCMC 的 Markov 动力学,使用估计的 Stein 算子的 Glauber 动力学生成高分布相似性 (高保真度) 和高样本多样性的图生成模型。
Mar, 2024
本文提出了一种基于神经网络的自适应 MCMC 采样器,它利用目标分布的梯度生成提案,通过最大化建议熵来实现对建议熵的直接优化,从而提高了在各种采样任务中的效率。
Oct, 2020
该论文提出了基于深度学习的方法来对非归一化目标密度进行建模,并使用特定问题的 Schrödinger 桥问题来确定在给定先验分布和指定目标之间的最有可能的随机演变,其中包括前面出现的目标作为特殊情况。
Jul, 2023