随机微分方程的无限深贝叶斯神经网络
本文研究了深度潜变高斯模型中的神经 SDEs,并采用随机流理论基于维纳空间开发出一种变分推理框架,利用黑盒 SDE 求解器和自动微分进行端到端推理。
May, 2019
提出一种新型深度神经网络模型 —— 连续深度模型,其采用了一个神经网络来参数化隐藏状态的导数,并利用黑箱微分方程求解器计算网络输出,使其具有内存成本不变、能够为每个输入自适应地选择评估策略并能显式进行精度 / 速度权衡等特点。研究者进一步证明了通过此模型可以构造出连续正则化流模型,能够通过最大似然进行训练,而不需要对数据维度进行分区或排序,并展示了如何在较大模型内部向任何 ODE 求解器进行可扩展地反向传播,从而实现 ODE 的端到端训练。
Jun, 2018
我们提出了一种基于随机动态系统视角的量化深度神经网络不确定性的新方法,即神经随机微分方程模型 (SDE-Net),并证明了其存在唯一解的性质,实验证明该模型在不确定性占据重要角色的一系列任务中优于现有的不确定性估计方法。
Aug, 2020
本文介绍了一种使用欧拉 - 马鲁雅马方法对扩散过程离散化,并应用变分推断方法共同学习参数和扩散路径的方法。这种方法使用平均场变分近似参数后验分布,并引入递归神经网络来近似参数条件下扩散路径的后验分布,所得结果可用于具有轻微调整需求的任何 SDE 系统,并在短短几个小时内产生准确的参数估计。
Feb, 2018
本文介绍了一种利用深度神经网络和近似贝叶斯推理相结合的广义深度生成模型,并引入了用于表示近似后验分布的识别模型,并利用随机反向传播来开发算法,实现生成和识别模型参数的联合优化,最终将模型应用于实际数据集,生成更真实的分布、准确地恢复缺失数据,并在高维数据的可视化上发挥了重要作用。
Jan, 2014
本文提出部分随机性无限深度贝叶斯神经网络 (Partially Stochastic Infinitely Deep Bayesian Neural Networks),将部分随机性融入无限深度神经网络框架中,并通过改进现有的架构,提高了训练和推理的计算效率以及稳健性、不确定性量化和内存效率。作者在实验中通过多个任务的经验评估证明了该架构在下游任务性能和不确定性量化方面优于现有架构,并且更加高效。
Feb, 2024
本文讨论了如何通过整合贝叶斯学习框架来量化神经普通微分方程中权重的不确定性,并且展示了在 MNIST 数据集上使用 GPU 加速的 No-U-Turn MCMC 采样器、Stochastic Gradient Hamiltonian Monte Carlo 和 Stochastic Langevin Gradient Descent 等推理方法成功集成神经 ODE 的实验结果。然后,我们首次证明了变分推理与标准化流和神经 ODE 的成功整合,生成了强大的贝叶斯神经 ODE 对象。最后,我们演示了如何利用普适的常微分方程概率地识别部分描述的动力系统中的模型规范,从而为探索认识上的不确定性提供了科学的机器学习工具。
Dec, 2020
本研究介绍了一种新型连续神经网络框架 Neural SDE,该框架自然地融合了基于随机噪声注入的各种常用正则化机制,可用于输入干扰和非对抗性扰动的鲁棒建模,并可实现更好的泛化性能和对抗性强化训练。
Jun, 2019
本文提出了一种使用神经随机微分方程学习控制动力学模型的框架和算法,能够构建模型预测控制算法以及模型基的增强学习领域中的仿真器,在模拟机器人系统中得到良好的应用。
Jun, 2023
我们提出了一种新颖的模型,即图神经随机微分方程(Graph Neural SDEs)。此技术通过使用布朗运动将随机性嵌入数据表示,提升了图神经常微分方程(Graph Neural ODEs),允许评估预测的不确定性,尤其在置信度预测方面超过了常规模型如图卷积网络和图神经常微分方程,使其在处理静态和时空上下文中的超出分布检测方面更加优越。
Aug, 2023