Dec, 2023
对大型语言模型间接提示注入攻击的基准测试与防御
Benchmarking and Defending Against Indirect Prompt Injection Attacks on
Large Language Models
TL;DR通过使用第一个基准BIPIA来评估不同大型语言模型的鲁棒性和对间接提示注入攻击的防御方法,我们发现具有更高能力的大型语言模型在文本任务中更容易受到间接提示注入攻击,导致ASR更高。在此基础上,我们提出了基于提示学习的四种黑盒方法和基于对抗训练的白盒防御方法,使大型语言模型能够区分指令和外部内容,并忽略外部内容中的指令。实验结果表明,我们的黑盒防御方法可以有效降低ASR,但无法完全阻止间接提示注入攻击,而我们的白盒防御方法可以将ASR几乎降低到零,对大型语言模型在一般任务上的性能影响较小。我们希望我们的基准和防御方法能够激发未来在这一重要领域的研究工作。