基于 MC-dropout 的脉冲神经网络高效不确定性估计
在本论文中,我们提出了一种用于二元神经网络(BNNs)的新型正则化技术 —— 比例 Dropout(Scale Dropout),以及基于蒙特卡罗比例 Dropout(MC-Scale Dropout)的 Bayesian NNs,用于有效地估计不确定性。我们引入了一种基于自旋电子存储器的计算内存(CIM)架构,相比最先进技术可实现超过 100 倍的能量节省。我们验证了我们的方法,结果显示相对于相关工作,我们的方法在预测性能上有 1% 的改进,并提供了更优的不确定性估计。
Nov, 2023
我们提出了一种快速的基于矩阵传播的近似方法,将神经网络转换成贝叶斯神经网络,实现对预测分布的点估计和不确定性估计,并通过与深度集成技术相结合进一步提高不确定性测量的性能。
Aug, 2023
该研究旨在通过一种单次 MC 退火的方法来提高贝叶斯变体深度神经网络的测试时间,同时保持不确定性测量的优点。经过基准测试和模拟游戏等方面的验证,该方法能够在实时部署 BDNNs 时实现预测分布的点估计和不确定性估计。
Jul, 2020
本文探究机器学习模型预测不确定性模拟的一种技术 Monte-Carlo Dropout 的聚类方法,并使用贝叶斯高斯混合模型来解决效率问题。同时研究了不同的 dropout rate,focal loss 和标度等技术,并将它们整合到 Mask-RCNN 模型中,以获得每个实例最准确的不确定性估计并进行图形展示。
May, 2023
Bayesian Neural Networks (BayNNs) and uncertainty estimation in spintronics-based computation-in-memory architectures are analyzed with a focus on the reliability of Dropout generation and BayNN computation, proposing a testing framework for Dropout-based BayNN with high fault coverage and minimal training data usage.
Jan, 2024
本研究提出了一种基于仿真蒙特卡罗 dropout 方法的 BNN 时间序列预测和不确定性估计方法,用于卫星遥测异常检测,实现了更准确和可靠的检测。
Nov, 2022
本研究发展了一种新的理论框架,将深度神经网络的 dropout 训练视为深高斯过程中的近似贝叶斯推断。我们的理论框架使我们能够通过 dropout 神经网络建模不确定性,从而解决了在深度学习中表示不确定性的问题,而不会牺牲计算复杂性或测试精度。
Jun, 2015
本文提出了一种利用特征映射相关性估计不确定性的贝叶斯神经网络用于端到端控制,该方法在传统元素级 dropout 方法上实现了更好的模型拟合和更紧密的不确定性估计。
May, 2018
本研究旨在定量比较 GCNNs 中不确定性估计的可扩展技术,介绍了一组定量标准来捕捉不同方面的不确定性,并使用这些标准在 QM9 数据集上理论和实验比较了 MC-Dropout、deep ensembles 和 bootstrapping 这些不确定估计方法,结果表明合奏和自举法始终优于 MC-Dropout 方法,在不同的具体情境中具有不同的优点和缺点,并突出了来自不同领域的不确定性所带来的挑战。
Oct, 2019