贝叶斯神经网络实践 -- 适用于深度学习用户的教程
这项研究探索了贝叶斯神经网络的概念,并提出了一种新颖的架构来显著减少网络的存储空间复杂性。此外,我们介绍了一种能够高效处理不确定性的算法,确保强健的收敛值而不会陷入局部极小值的问题,特别是在目标函数缺乏完美凸性的情况下。
Mar, 2024
本文介绍了贝叶斯神经网络中的概率层、架构和训练方法,并探讨了其扩展传统深度学习的方法,给出了 Tensorflow 的编程实现示例。然而,深层架构的不确定性考虑会让训练成本很高,而混合贝叶斯神经网络的策略可以很好地解决这个问题。
Jun, 2021
这篇研究论文探究了一种新型的贝叶斯深度学习,通过在网络结构上执行贝叶斯推断来加强深度网络的不确定性估计,并提出了一种有效的随机变分推断方法,以统一网络结构和权重的学习。
Nov, 2019
神经网络在各个问题领域取得了显著的表现,但其普适性受到其内在限制的阻碍,如预测上的过度自信、解释能力的欠缺和对对抗攻击的易受攻击性等。为了解决这些挑战,贝叶斯神经网络(BNNs)已成为传统神经网络的引人注目的扩展,在预测能力中整合了不确定性估计。本文系统地介绍了神经网络和贝叶斯推理的基本概念,阐明了它们对 BNNs 的协同集成的发展。目标受众包括具有贝叶斯方法背景但缺乏深度学习专业知识的统计学家,以及具有有限贝叶斯统计知识但精通深度神经网络的机器学习专家。我们概述了常用的先验知识,分析了它们对模型行为和性能的影响。此外,我们还深入探讨了在 BNN 研究领域内的先进主题,承认了不断进行的辩论和争议。通过提供对前沿发展的深入洞察,本文不仅为研究人员和实践者提供了 BNNs 方面的坚实基础,还展示了该动态领域的潜在应用。作为宝贵的资源,它促进对 BNNs 及其前景的理解,推动知识和创新的进一步发展。
Sep, 2023
本研究利用自然梯度变分推理方法对深度神经网络进行实用性的训练,并通过批归一化、数据扩充和分布式训练等技术获得类似于 Adam 优化器的性能,即使在 ImageNet 等大型数据集上也是如此。此外,本研究验证了使用贝叶斯原理的好处:预测概率被很好地校准,超出分布数据的不确定性得到改善,并且持续学习性能得到提高。该研究旨在实现实用性的深度学习,并同时保留贝叶斯原理的好处。最后提供了一个 PyTorch 的实现优化器。
Jun, 2019
本文研究了在深度神经网络中建模不确定性对生存分析的预测和校准性能的好处,提出了一个贝叶斯深度学习框架,评估了四个基准数据集上的预测表现,并与传统非贝叶斯方法进行比较。
Apr, 2024
该论文介绍了 Bayes by Hypernet,一种新的变分逼近方法,通过将超网络视为隐式分布来解决现代神经网络在未见过的、嘈杂的或标记错误的数据上过于自信,并且不能产生有意义的不确定性度量的短板,本文在 MNIST 和 CIFAR5 任务中表现优异且最具鲁棒性,同时满足复杂度、可扩展性和准确度的要求。
Nov, 2017
本研究提出了一种替代贝叶斯 NN 的简单实现方法,其能够产生高质量的预测不确定性估计,并在分类和回归数据集上进行了实验以证明这一点。此外,研究还评估了在已知和未知数据分布下的预测不确定性,并证明该方法能够在超出分布的样本上表现出更高的不确定性,同时在 ImageNet 上证明了该方法的可扩展性。
Dec, 2016