本文研究使用自然梯度方法解决贝叶斯深度学习中的复杂模型的计算挑战,并表明这种方法在提高收敛性方面有优势。
Jul, 2018
本文探讨了利用自然梯度方法在非共轭随机模型环境下的超参数学习,结果显示自然梯度方法可显著提高性能和效率并已被集成于 GPflow 软件包中。
Mar, 2018
本文提出了一种变分高斯过程 (VGP) 方法,该方法是一种贝叶斯非参数变分方法,利用随机非线性映射生成近似后验样本,适应于复杂的后验分布,且通过学习随机映射的分布来使之适应于不同的复杂度,该方法在无监督学习中实现了最新的最佳结果。
Nov, 2015
本文提出了一种基于神经网络的参数化证见函数的改进 Stein 变分梯度下降方法,旨在解决传统 Stein 变分梯度下降中选择核函数的难题,经实验证明该方法在合成推理问题、贝叶斯线性回归和贝叶斯神经网络推理问题中有效可行。
Jul, 2021
本文研究了变分贝叶斯神经网络、自然梯度上升和卷积神经网络等相关技术,提出了基于噪声版本的自然梯度、Adam 和 K-FAC 算法来训练全协方差、完全因式分解或矩阵变量高斯变分后验,并应用于回归测试中,发现该算法可以更好地预测和匹配存在方法的预测方差,进而用于主动学习和增强学习中实现更高效的探索。
Dec, 2017
随机自然梯度变分推断方法(NGVI)在各种概率模型中被广泛应用,本文对其非渐近收敛速度进行研究,证明了对于共轭似然情况下的非渐近收敛率为 1/T,而对于非共轭似然情况下的随机 NGVI,证明了它隐式地优化了一个非凸目标。
Jun, 2024
本文提出了一种名为可变预测的方法,该方法可通过使用可变约束直接学习预测分布的可变近似,避免了后验边缘化的计算成本,并在一个玩具实例上演示了该方法。
Jul, 2023
本文综述了变分推断中的最新趋势,介绍了标准的均值场变分推断,然后回顾了最近的进展,包括可扩展的 VI,通用的 VI,准确的 VI 以及摊余的 VI,并提供有关未来研究方向的总结。
Nov, 2017
Variational inference (变分推断) can be optimized using Wasserstein gradient descent methods to improve efficiency and alignment of variational parameters with the true posterior.
Oct, 2023
通过与一个识别模型相结合,我们开发了一个可扩展的深度非参数生成模型。在利用多层感知器的变分框架下,我们重新参数化变分后验分布,并推导出一个可处理深度学习任务规模数据集的变分下界公式,证明了该方法在深度无监督学习和深度贝叶斯优化领域的有效性。