Oct, 2023

特定提示的文本到图像生成模型的毒化攻击

TL;DR通过对海量训练数据集的文本到图像生成模型进行训练数据污染,本研究表明可以成功进行生成模型的污染攻击,通过优化的 Prompt-specific Nightshade 攻击,可以使用少于 100 个毒样本破坏生成模型的稳定扩散,并提出将 Nightshade 和类似工具作为内容创建者对抗忽略禁止抓取指示的网络爬虫的最后防线。