针对掩蔽图像建模的成员推断攻击
该论文研究深度学习中的成员推理攻击,指出现有攻击方法的报告中存在高误报率(FAR)和针对误分样本的较弱识别能力,并探索了距离决策边界和梯度范数等新特征,证明其对误分类样本分类能力普遍一般,最后通过多项实验证明了现有的MI攻击较难同时实现高准确率和低FAR。
May, 2020
本文研究了基于迁移学习模型的成员推断攻击,采用了影子模型训练策略,通过实验结果展示了成员推断攻击的有效性,并揭示了机器学习模型在实践中存在的成员隐私泄露风险。
Sep, 2020
本研究通过可视化和实验的角度比较了遮蔽图像模型(MIM)和长期优势的监督式预训练模型的关键表现差异,发现MIM可以在所有训练模型的层上引入位置归纳偏差并保持所有层的多样性,从而在较弱语义或细粒度分类任务中表现出色。
May, 2022
本文提出了一种基于蒙版图像建模的框架,即A^2MIM,可用于Transformers和CNNs网络,通过对补丁之间的相互作用的研究发现蒙版图像建模实质上教授了模型更好地处理中阶交互和提取通用特征的能力,并通过大量实验证明了该方法在不需要显式设计的情况下学习到更好的表示,并赋予骨干模型更强的能力,以适应于不同的下游任务。
May, 2022
利用余弦相似度阈值和弱监督攻击方法,对多模式模型进行成员推断攻击,研究表明 CLIP 模型容易受到攻击,而弱监督攻击方法在低误报率下平均性能提高 17%,至少比基准方法有效率提高 7 倍。
Sep, 2023
通过将MIM集成到现有的监督训练方法中,我们设计了一种简单而有效的方案,通过在视觉转换图像编码器上添加一个浅层的基于Transformer的解码器,并引入一个基于遮蔽图像输入的MIM任务,来改善下游任务的学习表示质量,如分类、图像检索和语义分割。
Dec, 2023
我们应用最先进的成员推理攻击方法,系统地测试了对大型图像分类模型进行微调时的实际隐私漏洞,重点在于了解使其易受成员推理攻击的数据集和样本的特性。就数据集的特性而言,我们发现数据集中每个类别的示例数量与成员推理攻击的脆弱性之间存在强烈的幂律依赖性,通过攻击的真阳率在低假阳率下衡量。对于单个样本来说,在训练结束时较大的梯度与成员推理攻击的脆弱性存在强相关性。
Feb, 2024
本研究调查了遮罩图像建模(MIM)这一强大的自监督学习技术在计算机视觉中的最新研究进展。通过对重构和对比学习两种实现MIM的方式进行分类,我们不仅构建了一个全面的分类法,并审查了近年来的重要论文,还识别了研究空白并提出了未来研究的多个方向。
Aug, 2024
本研究解决了传统掩蔽图像建模方法通过随机掩蔽策略所带来的资源消耗和训练效率低下的问题。提出了一种新的对称掩蔽策略,能够更有效地捕捉模型的全局和局部特征,进而引入SymMIM训练流程。在ImageNet数据集上,SymMIM实现了85.9%的最新状态准确率,并在下游任务中超越了先前的最佳结果。
Aug, 2024
本研究解决了大规模视觉-语言模型(VLLMs)在敏感数据使用方面的安全隐患。我们提出了首个针对VLLMs的成员推断攻击(MIA)基准,开发了专门的MIA管道,并引入了一种新指标MaxR\'enyi-K%,从而有助于增强对VLLMs的数据检测能力。这项工作有望改善对成员推断攻击的理解及其在VLLMs中的应用方法。
Nov, 2024