通过对抗鲁棒的量子机器学习进行无线电信号分类
通过使用量子机器学习算法,研究结果表明对抗性攻击具有一定的量子保护性,能够提供对机器学习算法的鲁棒性,使其对数据扰动、局部攻击和普遍对抗性攻击具有一定的保护能力。
May, 2024
量子机器学习模型与经典机器学习模型相似和不同的对抗鲁棒性进行了系统调查,使用了传递攻击、扰动模式和 Lipschitz 界限的方法。发现正则化有助于增强量子网络的鲁棒性,对 Lipschitz 界限和传递攻击有直接影响。
Apr, 2024
机器学习和量子计算的结合有潜力提供更高的准确性和计算效率,并对抗攻击产生更强的鲁棒性。然而,要建立强大的 QAML 工具仍有挑战。本文回顾了 QAML 的最新进展、字典并提出未来的研究方向,以期在量子计算硬件规模扩大和噪声水平降低的情况下实现 QAML 方法的实用性。
Jun, 2023
本文研究射频机器学习中的对抗性机器学习,阐述了攻击执行的位置,开发了一种在无线通信中评估对抗性成功的方法,并使用快速梯度符号方法评估了 RFML 的安全性,得出即使在 OTA 攻击下,RFML 也容易受到对抗性示例的攻击,但针对 RFML 特定领域的接收机效应可以在对抗性逃避方面产生重大影响。
Mar, 2019
利用量子力学的独特性质,量子机器学习(QML)在传统系统到达极限时承诺实现计算突破和丰富视角。然而,类似于经典机器学习,QML 也无法免受敌对攻击。量子敌对机器学习在凸显面对敌对性特征向量时的 QML 模型的弱点方面发挥了重要作用。在深入研究这个领域的同时,我们的探索揭示了去极化噪声与对抗鲁棒性之间的相互作用。虽然以前的结果通过去极化噪声增强了抗敌对威胁的鲁棒性,但我们的发现描绘了不同的情况。有趣的是,在多类别分类场景中添加去极化噪声取消了进一步提供鲁棒性的效果。验证我们的发现,我们进行了实验,对基于门的量子模拟器进行了敌对训练的多类别分类器进一步阐明了这种意外行为。
Nov, 2023
基于量子核方法和支持向量机的混合量子分类器容易受到对抗攻击,但基于数据增强的简单防御策略可以使分类器对新攻击具有鲁棒性,这在安全关键学习问题和减轻某些形式的量子噪声的影响中具有应用。
Apr, 2024
本文报道了第一个用可编程超导量子位的量子对抗学习实验,结果表明量子学习系统在对抗场景下存在一定的易受攻击性,并证明了对抗训练过程可以显著增强其抵御干扰性攻击的鲁棒性。
Apr, 2022
本研究使用恶意软件数据集 ClaMP,对传统的神经网络(NN)和量子神经网络(QNN)进行对抗攻击试验。结果发现,机器学习(ML)和量子机器学习(QML)模型均易受对抗攻击影响,尽管 QNN 在攻击后的精度和召回率方面表现更好,但准确率下降得更为显着。此研究为后续增强 ML 和 QML 模型(尤其是 QNN)的安全性和韧性打下了基础。
May, 2023
本文介绍了利用量子机器学习技术应对网络安全挑战的方法,特别是基于 QSVM 模型在恶意软件分类和保护方面的应用,为网络安全学习者设计并开发了十个基于量子机器学习的学习模块,以实现学生中心化、案例研究为基础的学习方法。其中一个子主题被应用于一个包含预实验、实验和后实验活动的网络安全主题,以提供应对实际安全问题的量子机器学习经验。QSVM 模型在 drebin215 数据集上实现了 95% 的恶意软件分类和保护精度。
Jun, 2023