基于人工智能的量子机器学习模型反向工程
该研究提出了一种名为QuMoS的框架,该框架通过在多个云提供商之间分发QML模型而不是应用加密算法来保护模型安全,并且使用强化学习算法自动优化在分布式环境下的模型设计,从而在提供高安全性的同时实现高精度。
Apr, 2023
本综述调查了在量子硬件上实现的监督学习和无监督学习应用,并探讨了其局限性及如何克服这些局限性。在此基础上,评估了这些 QML 实现与它们的经典对应物的性能表现,并讨论了应用 QML 在实际量子设备上存在的瓶颈和潜在解决方案。
Jul, 2023
本文描述了选择方法和分析现有的AutoML框架, 以了解它们将量子机器学习算法纳入自动化求解方法的能力以及通过基准测试解决一组不同机器学习问题类型的工业用例的最重要特征。在此基础上,我们选择了Ray和AutoGluon作为适用的低级和高级框架,它们满足所有要求并在用例研究中得到了最好的评价反馈。基于这些结果,我们构建了一个扩展的自动量子机器学习(AutoQML)框架,其中包含了硬件和软件约束的QC特定的流程步骤和决策特征。
Oct, 2023
该研究论文综述了量子计算在机器学习中的应用,包括量子机器学习算法、量子数据集、硬件技术、软件工具、模拟器和应用程序,为读者提供了跳跃到量子机器学习领域的最新技术的有价值的信息和资源。
Oct, 2023
云端托管的量子机器学习(QML)模型面临许多漏洞,其中最重要的是模型窃取攻击。本研究评估了这些攻击在量子计算领域的效果,利用多个QML模型体系结构在不同数据集上进行了全面的实验。实验结果显示,使用Top-1和Top-k(k: num_classes)标签进行训练的模型窃取攻击可以产生克隆模型,其克隆测试准确率分别达到原模型的0.9倍和0.99倍。为了防御这些攻击,我们利用当前嘈杂硬件的独特属性扰乱了受害模型的输出,阻碍了攻击者的训练过程。具体来说,我们提出了两种方法:1)硬件变化诱发的扰动(HVIP)和2)硬件和模型结构变化诱发的扰动(HAVIP)。虽然噪声和架构的可变性可以提供约16%的输出混淆,但我们的综合分析表明,在噪声条件下克隆的模型往往是弹性的,由于这种混淆几乎不会导致性能下降。尽管我们的防御技术取得了有限的成功,但这种结果导致了一项重要发现:在噪声硬件上训练的QML模型对扰动或混淆性的防御或攻击具有天然的抵抗力。
Feb, 2024
介绍了QuantumLeak,一种从基于云计算的NISQ机器中提取QNN模型的有效准确的技术,相比现有的经典模型窃取技术,QuantumLeak在各种数据集和VQC架构上提高了4.99%~7.35%的本地VQC准确度。
Mar, 2024
提出了一个用于保护量子机器学习数据安全的共同设计框架PrisitQ,通过引入一个带有用户定义安全密钥的附加安全量子位加密子电路,可以显著增强数据安全性,并提出了自动搜索算法来优化在加密量子数据上的模型以保持其性能。该框架在模拟和实际IBM量子计算机上的实验结果都证明了PristiQ提供高度安全性的能力,同时在量子机器学习中保持模型性能。
Apr, 2024
量子机器学习是量子计算的一个有潜力的早期使用案例,该文章旨在向那些已经具备量子计算基础知识并希望了解经典机器学习术语和应用的读者提供一个基本概览,其包括从理论研究到数值模拟再到概念验证等多个方面的进展。
Apr, 2024
量子机器学习(QML)将量子计算范式与机器学习模型相结合,为解决复杂问题提供了重要机遇。然而,在量子计算的噪声中间尺度(NISQ)时代中,随着众多第三方供应商的扩张,QML模型的安全性尤为重要,特别是抵御逆向工程攻击,该攻击可能会揭示模型的训练参数和算法。我们在推断过程中假设不可信任的量子云提供商是一种敌对方,对用户设计的训练过的QML模型进行白盒访问。我们第一次尝试研究QML电路的逆向工程,进行逆向工程并比较原始和逆向工程的量子神经网络(QNN)的训练准确率,发现在合理的时间内,在特定条件下可以逆向工程多比特分类器,平均误差约为1e-2的程度。我们还提出在QML模型中添加虚拟固定参数门以增加逆向工程的开销,以提高防御水平。逆向工程是一个非常强大的攻击模型,值得进一步进行防御研究。
Jul, 2024
本文研究了量子机器学习服务(QMLaaS)中存在的安全隐患,填补了关于经典和量子机器学习领域已知安全威胁的知识空白。通过概述QMLaaS的全过程,强调了与不可信的经典或量子提供者相关的重大安全问题,为安全的QMLaaS部署提供了重要的参考。关键发现表明,未经授权的访问可能危及模型的完整性并导致知识产权(IP)被盗。
Aug, 2024