Nov, 2024
针对大规模视觉-语言模型的成员推断攻击
Membership Inference Attacks against Large Vision-Language Models
TL;DR本研究解决了大规模视觉-语言模型(VLLMs)在敏感数据使用方面的安全隐患。我们提出了首个针对VLLMs的成员推断攻击(MIA)基准,开发了专门的MIA管道,并引入了一种新指标MaxR\'enyi-K%,从而有助于增强对VLLMs的数据检测能力。这项工作有望改善对成员推断攻击的理解及其在VLLMs中的应用方法。