稀疏子空间变分推断训练贝叶斯神经网络
本文旨在通过完全贝叶斯处理下的尖峰 - 平板先验训练稀疏深度神经网络,通过连续放松伯努利分布开发一组计算有效的变分推断方法。实证结果表明,这种变分程序不仅提供了关于贝叶斯预测分布的不确定性量化,而且还能通过训练稀疏多层神经网络实现一致的变量选择。
Nov, 2020
通过选择性地通过梯度敏感性分析评估确定性显著性,本研究引入了对稀疏(部分)贝叶斯网络的训练过程。通过将确定性参数与贝叶斯参数相结合,充分利用两种表示的优点,实现了高效的特定任务性能和最小化的预测不确定性。在多标签 ChestMNIST 分类和 ISIC、LIDC-IDRI 分割任务上表现出了有竞争力的性能和预测不确定性估计,相比完全贝叶斯化和集合方法,能够显著减少 95% 以上贝叶斯参数,从而大大降低计算开销。
Jun, 2024
本研究旨在利用模型不确定性作为 BNN 结构学习的框架,提出了可与模型空间约束结合的可扩展变分推理方法,试图在模型和参数的联合空间中进行推理,进而实现结构和参数不确定性的组合,并在基准数据集上进行了实验,表明使方法比普通 Bayesian neural networks 更加稀疏,但得到了与竞争模型相当的精度结果。
May, 2023
深度学习的复杂模型限制了其巨大潜力的发挥,需要高效的稀疏化技术。贝叶斯稀疏化是一种关键方法,能够设计出在各种深度学习应用中既计算效率高又性能竞争力强的模型。本研究指出贝叶斯模型简化是一种更高效的模型参数修剪方法,相对于现有的基于随机变分推断的方案,具有更好的计算效率和修剪率。研究中通过对各种深度学习架构的实例进行了验证,包括经典的网络如 LeNet 以及现代框架如视觉 Transformer 和 MLP-Mixer。
Sep, 2023
提出利用贝叶斯方法学习深度神经网络中的节点稀疏贝叶斯神经网络模型,证明其后验浓度速率接近最小最优和适应真实模型的平滑程度,并开发了一种新的 MCMC 算法,以实现节点稀疏 BNN 模型的贝叶斯推断。
May, 2023
本研究提出两种创新方法以将变分贝叶斯转化为贝叶斯神经网络的稳健推理工具:一种新的确定性方法用于逼近神经网络的矩,消除了梯度方差;一种参数的分层先验和自动选择先验方差的新的经验贝叶斯程序。将这两种方法结合起来,所得到的方法高效而稳健,在异方差回归应用中表现出了很好的预测性能。
Oct, 2018
本文提出一种新方法进行稀疏编码,在学习稀疏分布时通过截断样本避免使用有问题的松弛方法。通过在 Fashion MNIST 和 CelebA 数据集上与标准变分自编码器进行比较,证明了该方法具有更优越的性能、统计效率和梯度估计。
May, 2022
本文通过采用稀疏变分 dropout 技术和二元变分 dropout 技术,对循环神经网络进行稀疏化处理,并在情感分析和语言建模任务中取得了较高的稀疏度和较低的信息损失。
Jul, 2017
基于市场下行底部的趋势,通过计算国内主要增量资金、流动性、情绪、技术指标等多因素,进行权重计算,提出了基于隐藏半马尔科夫模型的股票量化分析方法。
Aug, 2023