隐马尔可夫模型的随机梯度马尔可夫链蒙特卡罗方法
本文介绍了一种名为随机梯度马尔可夫链蒙特卡罗(SGMCMC)的可扩展蒙特卡罗算法,其利用数据子抽样技术降低了 MCMC 的迭代成本,并比较了其效率与 MCMC 在基准示例上的异同。
Jul, 2019
本文提出了一种基于随机梯度马尔科夫链蒙特卡罗算法的用于混合成员随机块模型中可扩展推理的方法。该算法利用了随机梯度黎曼 Langevin 采样器,每次迭代都能实现更快的速度和更高的精度,比基于随机变分推理的当前最先进算法更优,同时我们还开发了一种适用于处理大量社区的近似方法。实验结果表明,SG-MCMC 在所有情况下均优于竞争算法。
Oct, 2015
本文提出了第一个元学习算法,可以自动设计 SG-MCMC 采样器的连续动力学,学习的采样器泛化了 Hamiltonian 动力学,并且在贝叶斯全连接神经网络和贝叶斯循环神经网络任务上进行了验证,表明学习采样器优于通用手动设计的 SG-MCMC 算法,并且可以推广到不同的数据集和更大的架构。
Jun, 2018
用一种新的非参数泛化逼近方法代替 VI,包含了一种 Langevin-type 算法,其中一部分潜变量是从 Markov 链的早期样本中平均的,以控制地打破统计相关性,从而使链更快混合。通过在 ResNet-20 上对 CIFAR-10,SVHN 和 FMNIST 进行测试,我们发现与 SG-MCMC 和 VI 相比,在收敛速度和 / 或最终准确性方面都有所提高。
Jul, 2021
本文介绍了倍增随机梯度 MCMC 这一简单通用的方法,用于在折叠的连续参数空间中对深度生成模型进行(近似)贝叶斯推理。我们的方法不仅适用于密度估计和数据生成的任务,还可以用于缺失数据的填充,且在性能方面优于许多现有的竞争对手。
Jun, 2015
此研究介绍了随机梯度贝克动力学(SGBD)算法,通过扩展最近开发的贝克马尔科夫链蒙特卡洛(MCMC)方案为随机梯度框架,实现了在大数据集下对贝叶斯采样的鲁棒性。研究表明,相比流行的随机梯度 Langevin 动力学算法,SGBD 在超参数调整和目标梯度的不规则行为方面表现更为稳健。
May, 2024
本文提供了一种基于连续马尔可夫过程的通用配方,用于构建包括随机梯度版本的 MCMC 采样器,并提出了一种新的状态自适应采样器:随机梯度 Riemann Hamiltonian Monte Carlo (SGRHMC)。通过实验证明,该算法继承了 Riemann HMC 的优点,并具有可扩展性。
Jun, 2015
本文探讨了随机梯度马尔可夫链蒙特卡罗算法与随机优化算法之间的关系,并通过应用模拟退火算法对 SGMCMC 算法进行了扩展,提出了一种具有自适应元素动量权重的新型随机优化方法,并针对多个深度神经网络模型进行试验,得到与相关随机优化算法相比最先进的结果。
Dec, 2015
本研究提出使用基于梯度的学习方法来自适应马尔可夫链蒙特卡罗(MCMC)提议分布,应用随机梯度优化能通过定义的最大熵正则化目标函数来优化提议分布的参数,并证明相比传统自适应 MCMC 方法,该方法带有更高的性能;并应用于多元随机步长 Metropolis 和 Metropolis-adjusted Langevin 提议与完整协方差矩阵,并证实该方法在 MCMC 算法中表现优异,包括哈密顿蒙特卡罗方案。
Nov, 2019