探索神经模型分类鲁棒性的精确观察
近年来,对神经网络的稳健性评估引起了极大关注,深度学习的稳健性问题特别突出,研究人员致力于在图像识别任务中评估稳健性,在此综述中,我们对神经网络评估中敌对稳健性和扰动稳健性进行了详细研究,分析当前研究和标准,提供了图像识别中稳健性评估的广泛概述,分析了概念、度量标准和评估方法,研究了用于度量图像扰动程度的扰动度量和范围表示,以及特定于分类模型稳健性条件的稳健度量,还讨论了现有方法的优势和局限性,并提供了一些未来研究的潜在方向。
Apr, 2024
在神经网络的研究中,我们开发了一种新的梯度基础的对抗攻击方法,相较于已有的攻击方法,它更可靠,可以适应广泛的对抗标准,并且在提高效率的同时,不需要进行超参数调整,这将对神经网络的鲁棒性评估做出有益的贡献。
Jul, 2019
本文系统调查了自然语言处理 (NLP) 中如何定义、衡量和改进模型的健壮性,提出了数据驱动、模型驱动和归纳先验为基础的缓解策略,并概述了未来研究的挑战和方向。
Dec, 2021
本文对深度神经网络抗对抗攻击的可靠性进行了研究和分析,并提出了目前的防御方法以及相应的理论和实践意义和发现,最后在不同数据集上提供了全面的鲁棒性验证和训练方法。
Sep, 2020
本文研究探讨了寻找更具有鲁棒性的体系结构对于减少深度学习模型在实际应用中对于输入数据微小扰动导致的错误决策的重要性。在评估鲁棒性方面,我们基于 NAS-Bench-201 进行神经网络架构搜索,对 6466 种不同的网络设计进行评估并引入数据库,发现对神经网络的拓扑结构进行优化可以显著提高其鲁棒性。
Jun, 2023
本文旨在通过定义一种补充现有度量方式的量化指标 —— 群体韧性,更好地评估模型在特定攻击情境下的表现并提出了两种损失函数、三种新的攻击策略,证明了该指标对于区分对特定威胁模型的脆弱性有更好的效果,并提出了一种防御方法,可以将群体韧性提高 3.52 倍。
Jun, 2023
本文提出了一种基于 Chernoff-Cramer Bounds 的新型通用概率认证方法,可以用于对抗性攻击环境下的机器学习应用。实验结果支持了我们的理论发现,证明了我们的方法对于语义扰动具有防御能力。
Sep, 2021
通过考虑认证模型的潜在输出空间,本研究提出了两种改进认证机制分析的独特方法,可以提供数据集独立和数据集相关的认证性能度量,从而使认证半径相对于现有技术能够提高一倍以上。经验证,我们的新方法能够在噪声尺度 $σ = 1$ 下认证比以往多 9%的样本,并且随着预测任务的难度增加,观察到更大的相对改进。
Sep, 2023