不确定性量化的对抗性攻击
本文介绍一种新的攻击模型,即局部不确定性攻击,用于制造确定性和随机分类器的对抗样本。与其他攻击方式不同,这种攻击是局限于分类器不确定性区域进行的, 这样可以制造出更难以察觉的对抗样本。
Jun, 2021
研究机器学习模型中的对抗样本和贝叶斯神经网络的不确定性测量,并发现置信度和不确定性可能是无可疑的,即使输出是错误的;同时,对大多数任务,我们在影响不确定性和置信度方面发现微妙的差异。
Dec, 2018
利用对抗模型量化不确定性提高估计认知不确定性的准确性,相较于现有方法,Quantification of Uncertainty with Adversarial Models 能够更好地捕捉深度学习模型中的认知不确定性。
Jul, 2023
本文研究了基于深度神经网络的不确定性估计算法的鲁棒性,并提出了一种敌对攻击方法,证明了这些算法对于出域数据的不确定性估计容易受到攻击。在各种基准图像数据集上进行的大量实验结果表明,最先进方法所估计的不确定性很容易被我们的攻击所破坏。
Oct, 2022
本文探讨了基于机器学习的入侵检测系统在准确度不确定性方面的挑战和应用,强调了准确度不确定性对提高 ML-IDS 的可信度的重要性,并通过对网络入侵检测领域的不同 ML 方法进行比较和验证,表明准确度不确定性的适当估计可以显著增强 ML-IDS 的可信度。此外,结果还确认传统基于前馈神经网络的 ML 方法可能不适合在网络入侵检测中使用。
Sep, 2023
研究不同类型的不确定性测量方法及其在检测对抗性例子中的应用,揭示了 MC dropout 方法的不足,提出了利用概率模型集成来提高不确定性估计质量的建议。实验证明不同不确定性测量方法在 MNIST 和狗猫分类数据集上的不同效果。
Mar, 2018
本研究提出基于不确定性的语义分割对抗攻击检测方法,不需修改模型或了解对抗样本生成过程,通过熵等指标区分干净和攻击图片,在多种对抗攻击类型下检测效果良好。
May, 2023
本文发现在两个不同的分类任务中,即便是能够实现几乎达到最先进水平分类精度的量子分类器也能被一个精心设计的通用扰动彻底欺骗,为实现异构分类任务生成通用扰动提供了一个简单而有效的方法,从而为未来的量子学习技术提供有价值的指导。
Jun, 2023
本篇研究论文重点介绍了机器学习模型中的不确定性量化方法,特别关注神经网络以及在工程设计和医疗领域的应用。通过介绍多种不确定性量化方法和计量标准,本篇论文旨在帮助提高机器学习模型的安全性和可靠性,同时提供两个具体案例:锂离子电池寿命预测和涡轮发动机剩余使用寿命预测。
May, 2023