通过抽象提升鲁棒图像分类的验证训练
该文章为图像分类器的稳健性建立了严格的基准测试,并提出了两个基准测试 ImageNet-C 和 ImageNet-P,用于评估分类器对常见扰动和干扰的稳健性。研究发现,从 AlexNet 分类器到 ResNet 分类器,相对污染鲁棒性几乎没有变化,而绕过的对抗性防御提供了实质性的常见干扰强度。
Mar, 2019
本文提出了一种用于验证神经网络鲁棒性的新算法Charon,并通过实验评估其在数百个基准测试中显著优于AI^2,Reluplex和Reluval等三种最先进的工具。
Apr, 2019
本文研究图像分类器对视频时序扰动的鲁棒性。我们构建了两个数据集,ImageNet-Vid-Robust和YTBB-Robust,包含57,897张图像,分为3,139组感知相似图像,并对其进行了重新注释以进行相似性分析。我们评估了各种经过ImageNet预训练的分类器,结果显示在两个数据集上的中位分类准确性分别下降了16和10。此外,我们还评估了三个检测模型,并显示自然扰动会引起分类和定位误差,导致检测mAP中位数下降14个点。我们的分析表明,视频中自然发生的扰动对于在需要可靠和低延迟预测的环境中部署卷积神经网络是一个实际而重大的挑战。
Jun, 2019
DeepCert是一种通过支持真实世界图像扰动的编码和系统评估上下文相关的DNN鲁棒性以及通过生成上下文相关反例选择适合操作环境的DNN图像分类器的工具,可用于验证DNN图像分类器的健壮性。
Mar, 2021
本文提出了一种紧线性逼近方法(Ti-Lin)来验证卷积神经网络的稳健性,使用MNIST,CIFAR-10和Tiny ImageNet数据集对Ti-Lin进行评估,结果表明Ti-Lin明显优于其他五种最先进的方法,对纯CNN具有Sigmoid/Tanh/Arctan函数和具有Maxpooling功能的CNN的稳健性边界水平提高了最多63.70%和253.54%。
Nov, 2022
该论文提出了一种通过最坏情况遮盖来提高模型不变性的方法Greedy Cutout,相比于PatchCleanser中的Random Cutout增强方式,通过使用Greedy Cutout可以提高模型的认证鲁棒性。
Jun, 2023
描述了一种验证深度神经网络对医学图像分割输出的方法,对各类随机和最坏情况下的扰动即对抗性攻击具有鲁棒性。该方法基于作者最近提出的一种称为“信任但验证”的通用方法,其中辅助验证网络使用分割结果作为输入对输入图像中的某些掩码特征进行预测。通过将这样一个网络的预测与原始图像进行对比,可以检测到错误的分割结果。为了确保验证方法真正具有鲁棒性,我们需要一种不依赖于黑盒神经网络的预测质量检测方法。实际上,我们表明之前利用深度神经回归网络进行分割评估的方法容易产生错误负例,即错误地将错误的分割标记为正确。我们描述了一种避免这种脆弱性的验证网络设计,并展示了相比之前的方法其鲁棒性的结果。
Oct, 2023
本研究解决了神经网络验证中针对预像的属性检查问题,提出了一种通用的预像抽象框架,能够产生任何多面体输出集的下界和上界逼近。通过利用参数化线性松弛和迭代细化过程,显著提升了高维输入的图像分类任务的效率和可扩展性,并在定量验证和鲁棒性分析中展现出其出色的性能。
Aug, 2024