防止成员推断攻击:只需修剪
我们应用最先进的成员推理攻击方法,系统地测试了对大型图像分类模型进行微调时的实际隐私漏洞,重点在于了解使其易受成员推理攻击的数据集和样本的特性。就数据集的特性而言,我们发现数据集中每个类别的示例数量与成员推理攻击的脆弱性之间存在强烈的幂律依赖性,通过攻击的真阳率在低假阳率下衡量。对于单个样本来说,在训练结束时较大的梯度与成员推理攻击的脆弱性存在强相关性。
Feb, 2024
该研究系统地调查和表征神经网络剪枝在计算机视觉中引起偏差的现象,提出基于未压缩模型的易于使用的标准,以确定裁剪是否会增加偏差,并确定在压缩后最容易受到偏差预测影响的样本。
Apr, 2023
本文提出了 PQ Index (PQI) 作为衡量深度神经网络可压缩性的量化指标,并基于此开发了一种基于稀疏性信息的自适应裁剪算法 (SAP),该算法在压缩效率和稳健性方面优于遗传算法等迭代型裁剪算法。
Feb, 2023
本文探讨在资源受限环境下,通过模型剪枝来压缩神经网络模型的方法,提出了一种简单、直接、易于应用的逐渐剪枝技术,并在多个模型 / 数据集上进行了比较,发现大型稀疏模型在保持较高精度的同时可减少 10 倍的参数数量。
Oct, 2017
本研究提出了一种 DNN 训练技术,该技术可以在不影响准确率的情况下,只学习了部分全参数集。此方法使用反向传播约束更新权重的总数,以仅跟踪具有最高总梯度的权重。通过确保总权重扩散保持接近于基线未修剪 SGD 的扩散,使用我们技术进行修剪的网络能够在网络架构中保留领先的状态,包括先前被认为难以压缩的网络。我们在 ImageNet 上使用 ResNet18 观察到了 11.7 倍的权重减少无准确性损失,最多可达 24.4 倍,但具有小的准确性影响。
Jun, 2018
本文从因果推理的角度应对神经网络尺寸扩大导致的资源消耗过高的问题,提出一种评分机制来进行神经网络的结构化剪枝和压缩,实现了在各种数据集和模型尺寸下的竞争性表现。
Dec, 2021