本文研究对抗性环境下的机器学习,特别是针对恶意攻击者注入有害数据时,特征选择会否带来益处或副作用的问题,并提供了一种框架来研究流行的特征选择方法的鲁棒性,结果表明特征选择方法在受到攻击下会受到较大影响,强调了需要特定的应对措施。
Apr, 2018
本文研究了机器学习在安全敏感应用中的应用,提出了一种基于梯度的方法来评估分类算法在对抗攻击下的安全性,并针对 PDF 文件中的恶意软件检测任务进行了实验,同时提出了一些相应的反制措施。
Aug, 2017
通过选择与网络攻击检测最相关的特征,在网络流量分析中训练机器学习模型所使用的高质量数据,可以提高模型的鲁棒性和计算效率。通过改进数据集、选择与时间相关的特征和更具体的特征集,以及进行对抗训练,机器学习模型在不损害正常流量传输的情况下显著提高了其抗对抗攻击的泛化能力,从而在企业计算机网络中可可靠地检测可疑活动和扰动流量。
Apr, 2024
该文章回顾了许多现有的针对机器学习模型的对抗攻击,突出了一些尚未解决的挑战,一些特定领域的约束可能会增加制作对抗样本的难度,也强调了如何将这些理论应用到实践的挑战。
Mar, 2023
通过考虑简化的攻击特征空间模型来设计鲁棒的人工智能模型,可以在检测 PDF 格式恶意软件时提高效果。在研究中发现,仅依靠特征空间模型的效果有限,但增加保留特征可以显著提高性能。此外,当面临各种恶意软件的攻击时,特征空间模型具有更广泛的鲁棒性。
本文提出了一种基于经验的分类器安全性评估框架,旨在扩展基于经典设计方法的模式分类理论和设计,以应对对策略性破坏。结果表明,安全性评估可以更完整地了解在对抗环境中分类器的行为,从而导致更好的设计选择。
Sep, 2017
本文介绍了一个新的框架,利用可解释的机器学习方法来指导高保真度评估机器学习逃避攻击,使用恶意软件和图像分类器进行综合评估,揭示了对抗样本与其上的对应扰动之间的关联差距,并展示了该方法对于评估机器学习模型鲁棒性的广泛使用。
Jun, 2021
本文探讨了如何在攻击者对检测器有限的知识的情况下进行数据驱动的图像篡改检测,通过随机特征选择得到了安全性显著提高而非攻击状态下性能略微下降的检测方法。
Feb, 2018
使用三种特征选择方法从内存内容中识别显著特征,并与各种分类器结合使用,提高分类任务的性能和隐私保护。实验结果表明,采用相互信息和其他方法进行特征选择策略,以及仅选择 25% 和 50% 的输入特征,然后采用随机森林分类器可以取得最佳结果。该研究通过提高恶意软件分类系统的效果和隐私保护性能,有助于保护免受恶意软件的安全威胁。
Sep, 2023
本文针对使用支持向量机(SVM)进行垃圾邮件和恶意软件检测等安全相关任务时存在的安全问题进行了探究,特别是研究了 SVM 对面向标签噪声攻击的安全性,并通过启发式方法解决了攻击策略的最优化问题,并在合成和实际数据集上进行了广泛的实验分析。最后,本文还指出,这种方法也可以为开发更安全的 SVM 学习算法以及半监督和主动学习等相关研究领域提供有用的见解。
Jun, 2022