本研究证明深度神经网络具有保留核心信息、能准确处理不同类别数据和传递关于未见数据的信息等重要属性,同时实现距离保持嵌入,并验证此结果适用于现有各类深度神经网络。
Apr, 2015
本文提出一种基于贝叶斯网络结构学习的方法,用于无监督结构学习深度神经网络,通过生成图,构建其随机反向,然后构建一个判别图,证明生成图的潜变量之间的条件依赖关系在条件“分类条件下”丢失在判别图,从而实现通用网络深层(卷积和密集)的学习结构替代,在保持分类准确性的同时显著减少计算成本。
Jun, 2018
研究了使用Gaussian weight prior和一类ReLU类非线性函数的深度贝叶斯神经网络形成的单位激活层级的先验分布随层级深度加深而变得更重尾的正则化效应。
Oct, 2018
本文提出了深度权重先验(DWP)作为深度卷积神经网络的新型先验分布。DWP利用生成模型来鼓励已训练卷积滤波器的特定结构,例如权重之间的空间相关性。作者提出了一种变分推断方法来处理这种隐式先验分布,并通过实验证明,当训练数据有限时,使用DWP可以改进贝叶斯神经网络的性能,使用DWP样本初始化权重也可以加速传统卷积神经网络的训练。
本文为解决Bayesian深度学习中的先验分布选择困难性问题,提出了一种基于Gaussian processes的新颖的功能先验分布匹配框架,该框架可通过 Markov chain Monte Carlo方法进行可扩展的先验分布采样,从而显著提高了性能。
Nov, 2020
本研究研究使用随机梯度下降算法训练的神经网络的权重统计数据,发现卷积神经网络和 ResNet 的权重显示出强烈的空间相关性,而全连接网络则显示出重尾的权重分布,根据这些观察得出更好的先验可以提高对各种图像分类数据集的性能。
Feb, 2021
使用神经网络结构的神经架构搜索并分析其分类性能,证明深度先验可以使线性分类器效果与全面训练的深度对应结构一致,这种深度先验不需要额外的推理,并在连续学习的扩展上研究了无灾难干扰的递增学习的可能性。
Apr, 2021
本文提出了一种新颖的贝叶斯神经网络架构,可以通过推断不同权重共享方案的后验分布来仅从数据中学习不变性。当在包含特定不变性的数据集上进行训练时,我们的模型优于其他不变变体的结构。没有进行数据增强时同样成立。
Jul, 2021
本文研究的是卷积神经网络的权重分布偏移对于预训练模型的稳健性的影响,提出了一个包含超过14亿卷积滤波器的数据集,并通过分析数据集展示了现有预训练模型的一些局限性。
Mar, 2022
该论文研究了现代深度神经网络的权重分布,探讨了深度贝叶斯神经网络后验分布的优化途径、后验质量和不确定性量化的关系、后验中模态的影响和可视化方法,以及权重空间对后验的对称性,并发布了大规模检查点数据集和代码,以帮助改进对贝叶斯后验的理解。
Oct, 2023