对抗性环境下数据聚类是否安全?
本研究提出了一种黑盒对于线性可分聚类模型的对抗攻击方法,在不知道真实度量的情况下生成溢出性对抗样本,攻击强度高且难以被检测,被证明能够成功攻击多种数据集与聚类算法。
Nov, 2019
本文研究了图建模在解决安全问题方面的能力,重点是对抗机器学习中尚未解决的问题进行了探讨:基于图聚类技术和全局特征空间的对抗性攻击,同时提出了对抗性攻击的防御策略。
Aug, 2017
本文提出了一种针对聚类算法鲁棒性的黑盒对抗攻击算法,该算法可以通过一个黑盒聚类算法生成对抗性样本,并对其鲁棒性进行测试,实验结果表明该算法可以有效测试不同类型的聚类算法的鲁棒性。
Sep, 2020
本文介绍了一种基于生成对抗网络的黑盒攻击,旨在分析和提高当前最先进的深度聚类模型的鲁棒性。经过实验验证,本篇研究发现传统无监督防御方法无法有效抵御这种攻击方式,从而呼吁开发更为鲁棒的深度聚类模型。
Oct, 2022
本研究探讨了增强 $k$-means 聚类算法对抗性操纵的挑战和策略,评估了聚类算法对抗性攻击的易受攻击性,强调了相关的安全风险,并研究了攻击强度对训练的影响,引入了有监督和无监督模型之间的可传递性概念,并突出了无监督模型对样本分布的敏感性。此外,我们还引入和评估了一种对抗性训练方法,该方法提高了在对抗情景下的测试性能,并强调了所提出训练方法中的各种参数的重要性,如连续学习、质心初始化和对抗步数。
Dec, 2023
本文讨论机器学习中的安全问题,侧重于人类活动而不是自然现象中的一些应用,例如信息排序、垃圾邮件检测和恶意软件检测。对于这种情况,训练算法必须处理旨在阻碍决策制定的操纵数据。本文通过分析在线重心异常检测方法的性能,评估了在对抗噪声条件下它的防御能力,并提供了理论边界和实际的保护机制。
Feb, 2010
通过提出一种针对公平聚类的黑盒公平攻击来分析公平聚类算法的鲁棒性;该攻击可以显著降低公平性性能。最后,提出一种新的公平聚类方法 Consensus Fair Clustering (CFC),将一致性聚类转化为公平图分割问题,并迭代地学习生成公平聚类输出。实验表明,CFC 高度鲁棒,是一个真正的公平聚类替代方案。
Oct, 2022
本文针对使用支持向量机(SVM)进行垃圾邮件和恶意软件检测等安全相关任务时存在的安全问题进行了探究,特别是研究了 SVM 对面向标签噪声攻击的安全性,并通过启发式方法解决了攻击策略的最优化问题,并在合成和实际数据集上进行了广泛的实验分析。最后,本文还指出,这种方法也可以为开发更安全的 SVM 学习算法以及半监督和主动学习等相关研究领域提供有用的见解。
Jun, 2022