ICMLDec, 2019

只需噪声输入即可进行模型权重盗窃:暴躁攻击者的好奇案例

TL;DR研究神经网络的权重在何种情况下容易被攻击者盗取。使用 i.i.d. 噪声输入,通过窃取 MNIST 和 KMNIST 模型,测试准确率分别达到 96% 和 82%,这说明权重的可盗取性与数据集的复杂性密切相关。此研究不仅突出了已知架构对模型窃取的影响,也为 CNN 的权重可学性提供了新的度量方法。此外,尝试使用 Ising 概率分布替代 i.i.d. 伯努利分布。