MMMar, 2019

像人类一样进行文本处理:对自然语言处理系统进行视觉攻击和防御

TL;DR本篇研究探讨了将文本进行视觉篡改后对 NLP 系统的攻击方法,在字符级别、单词级别和句子级别的任务中,神经模型和非神经模型的性能都会降低高达 82%,并研究了三种防御方法 —— 视觉字符嵌入、对抗性训练、基于规则的恢复 —— 这些方法可显著提高模型的鲁棒性,但与攻击未发生时的性能相比仍有一定差距。