对聚类算法的无疑惑对抗性攻击
本文提出了一种针对聚类算法鲁棒性的黑盒对抗攻击算法,该算法可以通过一个黑盒聚类算法生成对抗性样本,并对其鲁棒性进行测试,实验结果表明该算法可以有效测试不同类型的聚类算法的鲁棒性。
Sep, 2020
本研究探讨了增强 $k$-means 聚类算法对抗性操纵的挑战和策略,评估了聚类算法对抗性攻击的易受攻击性,强调了相关的安全风险,并研究了攻击强度对训练的影响,引入了有监督和无监督模型之间的可传递性概念,并突出了无监督模型对样本分布的敏感性。此外,我们还引入和评估了一种对抗性训练方法,该方法提高了在对抗情景下的测试性能,并强调了所提出训练方法中的各种参数的重要性,如连续学习、质心初始化和对抗步数。
Dec, 2023
本文介绍了一种基于生成对抗网络的黑盒攻击,旨在分析和提高当前最先进的深度聚类模型的鲁棒性。经过实验验证,本篇研究发现传统无监督防御方法无法有效抵御这种攻击方式,从而呼吁开发更为鲁棒的深度聚类模型。
Oct, 2022
本文研究了图建模在解决安全问题方面的能力,重点是对抗机器学习中尚未解决的问题进行了探讨:基于图聚类技术和全局特征空间的对抗性攻击,同时提出了对抗性攻击的防御策略。
Aug, 2017
本文针对使用支持向量机(SVM)进行垃圾邮件和恶意软件检测等安全相关任务时存在的安全问题进行了探究,特别是研究了 SVM 对面向标签噪声攻击的安全性,并通过启发式方法解决了攻击策略的最优化问题,并在合成和实际数据集上进行了广泛的实验分析。最后,本文还指出,这种方法也可以为开发更安全的 SVM 学习算法以及半监督和主动学习等相关研究领域提供有用的见解。
Jun, 2022
本文提出了一种基于谱对抗鲁棒性评估方法的图算法,通过将噪点边缘视作对抗性攻击并识别出不易受其影响的鲁棒点,从而提高了图算法的精准性和计算效率。
Jan, 2024
本研究介绍了基于模型决策的 Boundary Attack,它比传统基于梯度或得分的攻击更加适用于实际的黑盒模型应用,同时它不需要替代模型,比起传输攻击需要更少的知识,更容易应用,提高了机器学习模型的鲁棒性,同时也引发了有关部署机器学习系统安全性的新问题。
Dec, 2017
对机器学习模型的黑盒攻击是可能的,即使它们的结构不同。通过生成对抗性样本,并利用受害者模型标记合成训练集,攻击者可以训练出自己的替代模型,并将对抗性样本转移到受害者模型中实施攻击,该方法可以使用新的技术使攻击过程更加有效率,在 Amazon 和 Google 等公司的商业机器学习分类系统中展示了攻击的有效性。
May, 2016