通过基于分数的优化提高对抗鲁棒性
本研究提出了一个理论框架,通过将评分匹配和去噪评分匹配视为凸优化问题,对基于两层神经网络的扩散模型进行了分析。尽管现有的扩散理论主要是渐近的,但我们对有限数据的神经网络扩散模型进行了确切的预测评分函数表征,并建立了收敛结果,从而有助于理解非渐近设置中神经网络扩散模型的学习过程。
Feb, 2024
通过分析神经网络的数学框架和得分匹配与回归分析之间的创新连接,本文提出了第一次得分函数学习的一般化误差(样本复杂性)边界,从而克服了观测值中存在噪声的问题。
Jan, 2024
此研究介绍了基于评分的对抗生成(ScoreAG)框架,利用评分模型生成超越 $p$ 范数约束的对抗样本,既能保持图像的核心语义,又能生成逼真的对抗样本,进一步提高分类器的鲁棒性。通过广泛的实证评估,ScoreAG 在多个基准测试上与当前最先进的攻击和防御方法表现相当,强调了对抗样本在语义边界上的研究的重要性。
Oct, 2023
本文研究使用基于得分的扩散模型进行深层生成建模的方法,系统比较和理论分析不同方法学习条件概率分布的效果,并证明得出条件得分最成功的估计器的理论依据。同时,介绍了多速度扩散框架,提出了一个新的条件分数估计器,与之前的最先进方法相当。伴随着本文的理论和实验研究是一个开放源代码库 MSDiff,可用于应用和进一步研究多速度扩散模型。
Nov, 2021
本文介绍了一种在各种威胁模型下生成鲁棒分类器的方法,该方法利用了随机生成建模的最新进展,并利用条件分布采样。通过在被攻击的图像上添加高斯独立同分布噪声,然后进行预训练扩散过程,该方法表现出了可观的鲁棒性。该鲁棒性在 CIFAR-10 数据集上经过了广泛的实验验证,表明我们的方法在各种威胁模型下优于主要的防御方法。
Jul, 2022
本文提出两种针对深度排名系统的攻击,即候选攻击和查询攻击,还提出了一种反折叠三元组防御来提高排序模型的鲁棒性,并通过提出的经验鲁棒性评分来全面度量排名模型的鲁棒性,实验结果表明,我们的防御措施可以显著提高排名系统的鲁棒性,并同时缓解各种攻击。
Jun, 2021
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018
本研究针对生成扩散模型,发现攻击点在于编码器模块,并提出了 Score Distillation Sampling (SDS) 策略来保护图像并减少内存占用,同时通过最小化语义损失生成更自然的扰动,希望能够为恶意扩散模仿的防御做出贡献。
Oct, 2023