神经网络中的深度不确定性
本研究提出了一种使用归一化卷积神经网络(NCNNs)学习输入置信度估计的新方法,并提出了 NCNNs 的概率版本以产生具有统计意义的不确定性度量,可用于噪声深度传感器的深度完成任务,并在 KITTI 数据集上表现出在预测准确度、不确定性度量质量以及计算效率方面优于所有现有的贝叶斯深度学习方法,同时还展示了分离网络到并行不确定性和预测流的性能媲美具有数百万参数的常规方法。
Jun, 2020
本文对神经网络不确定性估计进行了全面的概述和介绍,包括模型不确定性和数据不确定性,并介绍了通过确定性神经网络、贝叶斯神经网络、神经网络集合和测试时间数据增强方法来建模这些不确定性的方法。此外,还讨论了不确定性方面的实际应用中存在的挑战和限制,以及未来工作的展望。
Jul, 2021
提出了一种用基于贝叶斯信任网络和蒙特卡罗采样的方法来对神经网络进行不确定性估计,这个方法具有与神经网络结构和任务无关,不需要优化进程的更改,能够应用于已经训练好的结构,有效地提高了准确性。
Jul, 2019
本文提出了一种基于深度神经网络的后验不确定性估计方法,通过辅助损失函数的梯度来估计不确定性,避免依赖于地面真实信息的损失定义,可以实现对固定深度估计模型的有状态压制应用。该方法在 KITTI 和 NYU 深度 V2 基准测试中实现了最先进的不确定性估计结果,并且模型和代码都可以在该链接公开获取。
Aug, 2022
本研究提出了一种替代贝叶斯 NN 的简单实现方法,其能够产生高质量的预测不确定性估计,并在分类和回归数据集上进行了实验以证明这一点。此外,研究还评估了在已知和未知数据分布下的预测不确定性,并证明该方法能够在超出分布的样本上表现出更高的不确定性,同时在 ImageNet 上证明了该方法的可扩展性。
Dec, 2016
为了应用于深度学习的相关领域,评估深度神经网络的预测不确定性是至关重要的。本文提出了一种新的预测不确定性标准,它应该基于输入的经验密度,使得对于训练数据中不可能出现的输入提供更高的不确定性,对于更可能出现的输入提供较低的不确定性,并开发了一个用于随机神经网络的密度不确定性层,以确保满足这一标准,研究了具有密度不确定性层的神经网络在 CIFAR-10 和 CIFAR-100 不确定性基准上的性能
Jun, 2023
文章提出了一种新的方法将深度回归问题由连续问题转化为离散二分类问题来提高深度估计的准确性和鲁棒性,在保证实时性的前提下比先前方法能更好地估计不确定性,显著降低因不确定性导致的估计误差,并提高三维地图重建的精确度和内存效率。
Dec, 2019
通过在类概率上使用狄利克雷分布对主观逻辑进行建模并使用确定性神经网络从数据学习收集导致预测的证据的功能,我们提出一种与贝叶斯神经网络正交的方法,该方法可以直接推断出预测的不确定性。我们的方法在检测超出分布的查询和对抗性扰动方面取得了空前的成功。
Jun, 2018
本文介绍了两种轻量级的方法,使具有概率性的深层网络的监督学习变得实用,首先,我们建议使用分类和回归的概率性输出层,其对现有网络只需进行最小的更改,其次,我们使用假设密度过滤(assumed density filtering)并展示如何将激活不确定性以实用的方式传播到整个网络中,这两种概率性网络保留了确定性网络的预测能力,但产生与其预测引起的经验误差相关的不确定性。
May, 2018