当前深度神经网络容易受到对抗样本的攻击,添加有针对性的噪音改变预测结果。本研究提出将主动视觉机制融入深度学习系统,通过从不同的注视点获取下采样视觉片段进行学习和推理,实现更大幅度的鲁棒性提升,同时可视化分析证明了从不同注视点进行推理使主动视觉方法对恶意输入更加抵抗。
Mar, 2024
该研究论文研究了深度神经网络的鲁棒性问题,特别是针对对抗样本的攻击。通过探索神经网络的结构,拓扑结构,预处理和训练策略等方面来提高深度神经网络的抗干扰能力,并且通过引入平滑性惩罚来提高其稳健性。
Dec, 2014
本文介绍了潜在的对抗攻击抗干扰能力强的脉冲神经网络(SNN),以及研究表明使用 Poisson 编码器的输入离散化和 Leaky-Integrate-Fire (LIF) 神经元的泄漏率增加可提高其在 CIFAR 数据集上的对抗准确性。
Mar, 2020
对于神经网络决策和中间层所学习的信息的解释仍然是一项挑战,该研究调查了神经网络中间层的概念激活可靠性的提高方法,包括对抗性概念激活向量和 Gram-Schmidt 过程改进,这可以提高其对不同随机种子的收敛性和可回忆性。
Feb, 2020
本研究探索如何在神经网络中引入物理学的概念来提高对于对抗噪声的鲁棒性。通过用小波散射变换替换 V1-cortex 并用均匀高斯噪声代替神经随机性,无需对抗训练,就能实现更好的对抗性鲁棒性。
Apr, 2023
我们提出了一种名为 SCAAT 的模型无关学习方法,通过在显著性图的指导下构建对抗样本,改善了深度神经网络 (DNNs) 的可解释性,使显著性图更加精确和可靠,而不需要对模型架构进行任何修改。通过在多个 DNN 和不同图像数据集上评估生成的显著性图的质量,结果表明 SCAAT 显著提高了 DNNs 的可解释性,提供更可靠的显著性图而不损失其预测能力。
Nov, 2023
本论文提出了一种基于因果关系视角的神经网络输入鲁棒性分析方法,提出了深度因果操纵增强模型(CAMA),解决了单因素影响的问题,并采用了数据增强和测试时间微调方法以提升模型鲁棒性。相较于基于判别模型的深度学习神经网络,该模型表现出了更好的抵抗未知操纵攻击的能力,并成功实现了操纵信息与其他潜在因素的解耦合表示。
May, 2020
本文研究两种生物学机制在对抗性鲁棒性方面的角色,并且通过消融实验证明了非均匀采样和多重感受野存在能够提高神经网络对小的对抗性扰动的鲁棒性。
Jun, 2020
应用生物物理学原理进行非线性计算后,我们开发了一种方案来训练深度神经网络以使它们对抗性攻击具有强鲁棒性。该方案生成高度非线性,饱和的神经网络,即使在没有遭受敌对的选择性训练样本的情况下,在 MNIST 上也实现了状态的最先进表现。
Mar, 2017
本文提出了基于个体神经元表现出的矛盾现象的 FairNeuron 工具,通过选择性的神经元 Dropout 来实现模型准确性和公平性之间的平衡,从而有效提高所有模型的公平性,同时保持稳定的实用性。
Apr, 2022