ACLJul, 2021

将文字塞入系统嘴中:使用单语数据攻击神经机器翻译的有针对性攻击

TL;DR该研究表明,神经机器翻译系统不仅容易受到对抗性测试输入的攻击,而且容易受到训练攻击的影响,作者提出了一种毒化攻击方法,插入带有误导性的毒化样本,从而在神经机器翻译系统训练中引起指定的翻译行为,本文提出了防御方法,但仍需要紧急关注。