Aug, 2023

AI 代码生成器中的漏洞:探索有针对性的数据中毒攻击

TL;DR通过数据污染评估 AI 代码生成器的安全性,这是一种通过将恶意样本注入训练数据以生成易受攻击代码的攻击方法;我们通过注入含有安全漏洞的代码来污染训练数据,并评估该攻击对代码生成的最新模型的成功程度。我们的分析显示,即使是少量的数据污染,也会使 AI 代码生成器变得容易受攻击。此外,该攻击不会影响预训练模型生成的代码的正确性,这使得难以检测。