Jun, 2023

机器学习需要自己的随机性标准:随机平滑和基于伪随机数生成器的攻击

TL;DR本文考虑攻击者是否可以只利用制造机器学习模型所依赖的随机性来破坏模型的安全性, 发现攻击者能够利用 Randomised Smoothing,一种用于提高模型抵抗对抗性攻击和量化不确定性的方法,背后基于对高斯噪声采样,来进行欺骗性认证,而且攻击只需要更改极小的随机数。因此,作者提出更新 NIST 的随机数测试准则,以使其更适用于安全和关键性的机器学习应用。