通过概率抽样,研究了五种新的基于抽样的测试技术以及其他三种先进技术,以实现对深度神经网络在运行中准确度的忠实和高置信度估计,从而降低成本。
Mar, 2024
本文介绍了一种组合 DNN、XGBoost 和差异性计算技术的集成方法,用于估计预测的不确定性、提高准确性并提供预期变化的区间,其计算简单,适用于小数据集且性能提升显著,且模型的预测区间可平均包括实际值的 71%和 78%。
Oct, 2022
本研究提出了一种替代贝叶斯 NN 的简单实现方法,其能够产生高质量的预测不确定性估计,并在分类和回归数据集上进行了实验以证明这一点。此外,研究还评估了在已知和未知数据分布下的预测不确定性,并证明该方法能够在超出分布的样本上表现出更高的不确定性,同时在 ImageNet 上证明了该方法的可扩展性。
Dec, 2016
提出了一种基于统计方法的神经网络预测间隔构造方法,旨在解决其他相关研究的局限性,提供更为准确的预测区间并保证预测精度,该方法易于实施且适用于大多数深度神经网络。
May, 2019
通过使用非参数核回归进行采样,我们提出了一种新颖的采样分布,它能够在神经网络训练过程中学习到有效的重要性评分。我们的采样算法在墙钟时间和准确性上优于基准算法。
Nov, 2023
本论文介绍了一种将大型神经网络装备上模型的不确定性的方法,并应用了这个方法在 ResNet-50 和深度图像先验网络上进行了实验。
Apr, 2024
部署神经网络在资源受限的安全关键系统中面临不确定性和硬件非理想性所带来的挑战,该研究论文总结了一项 (四年级) 博士论文工作,该工作探索了深度学习中可扩展和高效的方法,包括计算内存 (Computation-in-Memory) 使用新兴的阻性非挥发性存储器来估计和降低不确定性。我们采用问题感知训练算法、新颖的神经网络拓扑结构和硬件协同设计解决方案,包括基于自旋电子器件的基于退化的二值贝叶斯神经网络和变分推理技术。这些创新显著提高了异常数据检测、推理准确性和能量效率,从而增加了神经网络实现的可靠性和鲁棒性。
Jan, 2024
本文通过在大规模 CPU 机器上评估近似矩阵乘法的两种采样方法,提供了负面的理论分析,这表明前馈逼近是可扩展性的障碍。作者指出基于哈希的节点选择方法不能扩展到大量层数,并确定了未来研究的方向。
Jun, 2023
我们引入了一种概率分布和高效的采样算法来处理神经网络中的权重和偏差参数,通过玩具模型和实际数据集的实验,证明了我们构造的采样网络是普适逼近器,并且采样框架对于输入数据的缩放和旋转是不变的,这意味着许多流行的预处理技术不再需要。
本文介绍一种基于子网络推断框架和线性 Laplace 逼近的贝叶斯深度学习方法,用于提高深度神经网络的预测精度和有效性。在子网络中推断出如此表达力强大的后验逼近,该方法得以比全网络的后验逼近和 Ensembles 方法实现更好的效果。
Oct, 2020