ICMLOct, 2016

评估深度神经网络上对抗样本的威胁

TL;DR研究深度神经网络面临的潜在安全威胁 —— 对抗性样本,这些输入看起来很正常,但会导致深度神经网络错误分类;发现通过正常的图像获取进程实现的小扰动可以消除对抗性样本造成的影响,从而抵消了潜在威胁。同时,已经广泛使用的多次裁剪平均处理和正常预处理也可以在很大程度上消除对抗性样本。因此,该研究认为在文本分类中,对抗性样本仅仅是学术上的好奇现象,而非安全威胁。