本研究提出了一种黑盒对于线性可分聚类模型的对抗攻击方法,在不知道真实度量的情况下生成溢出性对抗样本,攻击强度高且难以被检测,被证明能够成功攻击多种数据集与聚类算法。
Nov, 2019
本文介绍了一种基于生成对抗网络的黑盒攻击,旨在分析和提高当前最先进的深度聚类模型的鲁棒性。经过实验验证,本篇研究发现传统无监督防御方法无法有效抵御这种攻击方式,从而呼吁开发更为鲁棒的深度聚类模型。
Oct, 2022
本论文介绍了攻击聚类算法的潜在风险以及如何评估攻击的影响,提出了一般性框架,重点研究了单链接分层聚类。
Nov, 2018
该论文提出一种基于进化算法的黑盒攻击方法,可以成功生成针对神经网络模型的对抗样本,并且具有鲁棒性和随机性,实验结果表明该算法的复杂度受到模型和数据集的影响,同时对抗样本在某种程度上能够复制神经网络学习到的样本特征。
Jan, 2019
本研究探讨了增强 $k$-means 聚类算法对抗性操纵的挑战和策略,评估了聚类算法对抗性攻击的易受攻击性,强调了相关的安全风险,并研究了攻击强度对训练的影响,引入了有监督和无监督模型之间的可传递性概念,并突出了无监督模型对样本分布的敏感性。此外,我们还引入和评估了一种对抗性训练方法,该方法提高了在对抗情景下的测试性能,并强调了所提出训练方法中的各种参数的重要性,如连续学习、质心初始化和对抗步数。
Dec, 2023
通过提出一种针对公平聚类的黑盒公平攻击来分析公平聚类算法的鲁棒性;该攻击可以显著降低公平性性能。最后,提出一种新的公平聚类方法 Consensus Fair Clustering (CFC),将一致性聚类转化为公平图分割问题,并迭代地学习生成公平聚类输出。实验表明,CFC 高度鲁棒,是一个真正的公平聚类替代方案。
我们引入了一种针对算法公平性的优化框架,并开发了一种基于梯度的毒化攻击方法,旨在在数据的不同群体之间引入分类偏差,我们实验性地表明,我们的攻击不仅在白盒环境中有效,特别是在黑盒情况下,也对目标模型有很大影响,我们相信我们的发现为完全新的针对算法公平性在不同场景中的对抗攻击定义铺平了道路,并且研究这些漏洞将有助于未来设计更加稳健的算法和对策。
Apr, 2020
本文研究了图建模在解决安全问题方面的能力,重点是对抗机器学习中尚未解决的问题进行了探讨:基于图聚类技术和全局特征空间的对抗性攻击,同时提出了对抗性攻击的防御策略。
Aug, 2017
本文介绍了对抗性训练及其在构建鲁棒模型方面的应用,提出了新型白盒和黑盒攻击,即灰盒对抗攻击,提出了一种新颖的模型鲁棒性评估方法,并提出了一种新型的对抗性训练:灰盒对抗训练,其使用模型的中间版本来引导敌手生成更加有效的对抗样本,实验证明此方面的成果优于传统方法。
Aug, 2018
本文提出了一种对节点分类的图注入攻击 (Cluster Attack--a Graph Injection Attack),通过将虚假节点注入到原始图中,以退化图神经网络 (GNNs) 对特定受害节点的性能,同时尽可能少地影响其他节点,并将受害节点聚类。该攻击以一种实际且不易被察觉的基于查询的黑盒方式进行,具有较高的攻击成功率。
Sep, 2021