深度神经网络中攻击领域外不确定性估计
提出了一种用基于贝叶斯信任网络和蒙特卡罗采样的方法来对神经网络进行不确定性估计,这个方法具有与神经网络结构和任务无关,不需要优化进程的更改,能够应用于已经训练好的结构,有效地提高了准确性。
Jul, 2019
本文旨在研究如何衡量深度神经网络中不同的不确定性因素,进一步探究利用这些因素更有效地解决不同决策问题的方法。其中,作者提出了一个一般学习框架来定量不同根本原因导致的多种不确定性,并发现在对于深度神经网络的分类及早期时间点的事件检测中,对于实现最佳效果的不确定性因素分别为矛盾和真空。此外,本文还提出了一个改进 SSL 算法的框架,以抵御 OOD 对象的重要影响。
Apr, 2023
本文对神经网络不确定性估计进行了全面的概述和介绍,包括模型不确定性和数据不确定性,并介绍了通过确定性神经网络、贝叶斯神经网络、神经网络集合和测试时间数据增强方法来建模这些不确定性的方法。此外,还讨论了不确定性方面的实际应用中存在的挑战和限制,以及未来工作的展望。
Jul, 2021
本文研究了自主车辆在安全关键任务中使用神经网络时,面临的不可避免的误差问题,并给出了一些用于评估这种不确定性的方法和指标,比较了各种不确定性量化方法在特定 AV 任务和类型的优劣。
Jun, 2020
本研究提出了一种替代贝叶斯 NN 的简单实现方法,其能够产生高质量的预测不确定性估计,并在分类和回归数据集上进行了实验以证明这一点。此外,研究还评估了在已知和未知数据分布下的预测不确定性,并证明该方法能够在超出分布的样本上表现出更高的不确定性,同时在 ImageNet 上证明了该方法的可扩展性。
Dec, 2016
本研究提出了一种基于模型历史快照的算法,用于在非贝叶斯深度神经分类中,有选择地估计高度自信点的不确定性,这解决了从已训练网络中提取不确定信号的已知方法所带来的偏差估计问题,研究表明所提出的算法比所有已知方法的不确定性估计结果更加准确。
May, 2018
本文介绍一种新的攻击模型,即局部不确定性攻击,用于制造确定性和随机分类器的对抗样本。与其他攻击方式不同,这种攻击是局限于分类器不确定性区域进行的, 这样可以制造出更难以察觉的对抗样本。
Jun, 2021
本研究提出基于不确定性的语义分割对抗攻击检测方法,不需修改模型或了解对抗样本生成过程,通过熵等指标区分干净和攻击图片,在多种对抗攻击类型下检测效果良好。
May, 2023
为了让实际应用的人工智能系统更加被广泛认知,模型的可信度至关重要。文章提出了一种新的训练策略,结合熵鼓励损失项和对抗校准损失项,以提高样本在领域世界偏移下的校准性和适应性。文章在不同的数据模式、数据集和网络架构上进行了全面的评估,结果显示该方法明显高于现有的最先进方法,应用于领域漂移下预测方面具有技术上的可信度。
Dec, 2020