Jul, 2023

CLIPMasterPrints:利用潜变量演化欺骗对比性语言图像预训练

TL;DR通过挖掘生成模型的潜在空间,利用进化策略或随机梯度下降搜索,我们展示了可以最大化 CLIP 模型的置信度得分,适用于大量不同的提示,但对人类不可识别的欺骗主图像。我们研究了挖掘的欺骗主图像的属性,发现训练于少量图像标题的图像可能普遍适用于更多数量的语义相关标题。此外,我们评估了两种可能的缓解策略,并发现对欺骗主例子的脆弱性与对比式预训练多模态网络中的模态间隔密切相关。因此,我们提出减少 CLIP 和相关多模态方法中的模态间隔来缓解不在数据流形上攻击的脆弱性。