本文介绍了一种基于 Markov 过程的 mean field variational approximation 方法,用于近似描述 Continuous-time Bayesian networks 中的概率分布,并提供了较好的推断和学习效果。
May, 2012
本文研究使用自然梯度方法解决贝叶斯深度学习中的复杂模型的计算挑战,并表明这种方法在提高收敛性方面有优势。
Jul, 2018
本研究提出两种创新方法以将变分贝叶斯转化为贝叶斯神经网络的稳健推理工具:一种新的确定性方法用于逼近神经网络的矩,消除了梯度方差;一种参数的分层先验和自动选择先验方差的新的经验贝叶斯程序。将这两种方法结合起来,所得到的方法高效而稳健,在异方差回归应用中表现出了很好的预测性能。
Oct, 2018
本文提出了一种基于贝叶斯线性模型的新型逐层初始化策略,用于解决随机变分推断的初始化问题,并在回归、分类等任务中进行了广泛验证,与启发式初始化相比,能够实现更快更好的收敛。
本文研究了深度潜变高斯模型中的神经SDEs,并采用随机流理论基于维纳空间开发出一种变分推理框架,利用黑盒SDE求解器和自动微分进行端到端推理。
May, 2019
本文提出一种利用伴随灵敏度方法计算随机微分方程梯度的方法,结合高阶适应性求解器,实现快速、内存高效的梯度计算。并将该方法应用于基于神经网络的随机动力学拟合中,表现出竞争性的性能。
Jan, 2020
本文讨论了如何通过整合贝叶斯学习框架来量化神经普通微分方程中权重的不确定性,并且展示了在MNIST数据集上使用GPU加速的No-U-Turn MCMC采样器、Stochastic Gradient Hamiltonian Monte Carlo和Stochastic Langevin Gradient Descent等推理方法成功集成神经ODE的实验结果。然后,我们首次证明了变分推理与标准化流和神经ODE的成功整合,生成了强大的贝叶斯神经ODE对象。最后,我们演示了如何利用普适的常微分方程概率地识别部分描述的动力系统中的模型规范,从而为探索认识上的不确定性提供了科学的机器学习工具。
Dec, 2020
深度学习和贝叶斯深度学习使用变分推断和边缘似然来进行后验推理和模型选择。
Jan, 2024
本文提出部分随机性无限深度贝叶斯神经网络(Partially Stochastic Infinitely Deep Bayesian Neural Networks),将部分随机性融入无限深度神经网络框架中,并通过改进现有的架构,提高了训练和推理的计算效率以及稳健性、不确定性量化和内存效率。作者在实验中通过多个任务的经验评估证明了该架构在下游任务性能和不确定性量化方面优于现有架构,并且更加高效。
Feb, 2024
本研究解决了贝叶斯神经网络中经典变分推断在参数空间面临的先验问题,通过提出一种新的功能随机梯度马尔可夫链蒙特卡洛(SGMCMC)方案,能够在功能空间中生成更真实的后验样本。研究结果表明,该方法在准确性和不确定性量化方面优于现有的SGMCMC和功能变分推断方法,具有显著的应用潜力。
Sep, 2024