保护量子机器学习模型安全的框架 QuMoS
本文介绍了利用量子机器学习技术应对网络安全挑战的方法,特别是基于 QSVM 模型在恶意软件分类和保护方面的应用,为网络安全学习者设计并开发了十个基于量子机器学习的学习模块,以实现学生中心化、案例研究为基础的学习方法。其中一个子主题被应用于一个包含预实验、实验和后实验活动的网络安全主题,以提供应对实际安全问题的量子机器学习经验。QSVM 模型在 drebin215 数据集上实现了 95% 的恶意软件分类和保护精度。
Jun, 2023
提出了一个用于保护量子机器学习数据安全的共同设计框架 PrisitQ,通过引入一个带有用户定义安全密钥的附加安全量子位加密子电路,可以显著增强数据安全性,并提出了自动搜索算法来优化在加密量子数据上的模型以保持其性能。该框架在模拟和实际 IBM 量子计算机上的实验结果都证明了 PristiQ 提供高度安全性的能力,同时在量子机器学习中保持模型性能。
Apr, 2024
云端托管的量子机器学习(QML)模型面临许多漏洞,其中最重要的是模型窃取攻击。本研究评估了这些攻击在量子计算领域的效果,利用多个 QML 模型体系结构在不同数据集上进行了全面的实验。实验结果显示,使用 Top-1 和 Top-k(k: num_classes)标签进行训练的模型窃取攻击可以产生克隆模型,其克隆测试准确率分别达到原模型的 0.9 倍和 0.99 倍。为了防御这些攻击,我们利用当前嘈杂硬件的独特属性扰乱了受害模型的输出,阻碍了攻击者的训练过程。具体来说,我们提出了两种方法:1)硬件变化诱发的扰动(HVIP)和 2)硬件和模型结构变化诱发的扰动(HAVIP)。虽然噪声和架构的可变性可以提供约 16% 的输出混淆,但我们的综合分析表明,在噪声条件下克隆的模型往往是弹性的,由于这种混淆几乎不会导致性能下降。尽管我们的防御技术取得了有限的成功,但这种结果导致了一项重要发现:在噪声硬件上训练的 QML 模型对扰动或混淆性的防御或攻击具有天然的抵抗力。
Feb, 2024
本文提出了一种高度可移植的量子语言模型 (PQLM),它可以在经典计算机上向下游任务轻松传输信息,并演示了在经典计算机上将 PQLM 的词嵌入有效地应用于下游任务。该 PQLM 具有与其经典对应物相当的性能,并为量子预训练语言模型的理论基础奠定了基础。
Oct, 2022
通过使用量子机器学习算法,研究结果表明对抗性攻击具有一定的量子保护性,能够提供对机器学习算法的鲁棒性,使其对数据扰动、局部攻击和普遍对抗性攻击具有一定的保护能力。
May, 2024
利用量子计算和量子机器学习算法在数据处理方面取得了指数级的提速、资源需求的减少以及准确度和效率的提高,本文对量子计算、机器学习和量子机器学习算法进行了探讨,并提供了一个简化的步骤,可以帮助读者建立量子机器学习算法的模拟。此外,通过在数据集上利用机器学习和量子机器学习方法进行模拟,利用量子模拟器对它们的性能进行了比较。
Nov, 2023
本研究使用恶意软件数据集 ClaMP,对传统的神经网络(NN)和量子神经网络(QNN)进行对抗攻击试验。结果发现,机器学习(ML)和量子机器学习(QML)模型均易受对抗攻击影响,尽管 QNN 在攻击后的精度和召回率方面表现更好,但准确率下降得更为显着。此研究为后续增强 ML 和 QML 模型(尤其是 QNN)的安全性和韧性打下了基础。
May, 2023
本文主要介绍了基于量子可逆神经网络(QNN)和经典卷积神经网络 (CNN) 的混合模型,基于联邦学习的分布式训练可以极大地提高训练效率和数据隐私保护,并展示了分布式联邦学习方案对于扩展和隐私方面的有前景的未来研究方向。
Mar, 2021
本论文提出了第一个完全量子联邦学习框架,该框架可以在量子数据上运行并以分散的方式共享量子电路参数的学习。论文首先生成了第一个分层数据格式的量子联邦数据集,然后将其提供给使用 QCNN 模型的客户端执行分类任务,并对提出的 QFL 解决方案进行广泛的实验以评估和验证其有效性。
May, 2021