生成量子分类器的通用对抗扰动
本文发现在两个不同的分类任务中,即便是能够实现几乎达到最先进水平分类精度的量子分类器也能被一个精心设计的通用扰动彻底欺骗,为实现异构分类任务生成通用扰动提供了一个简单而有效的方法,从而为未来的量子学习技术提供有价值的指导。
Jun, 2023
通过使用量子机器学习算法,研究结果表明对抗性攻击具有一定的量子保护性,能够提供对机器学习算法的鲁棒性,使其对数据扰动、局部攻击和普遍对抗性攻击具有一定的保护能力。
May, 2024
本文报道了第一个用可编程超导量子位的量子对抗学习实验,结果表明量子学习系统在对抗场景下存在一定的易受攻击性,并证明了对抗训练过程可以显著增强其抵御干扰性攻击的鲁棒性。
Apr, 2022
本文研究如何在量子领域扩展敌对训练的概念,并展示如何构建使用量子电路的生成性对抗网络。我们还展示了如何利用另一个量子电路计算梯度,同时提供了一个简单实用的电路 ansatz 来参数化量子机器学习模型,并进行了简单的数值实验以证明量子生成对抗网络可以成功地进行训练。
Apr, 2018
机器学习和量子计算的结合有潜力提供更高的准确性和计算效率,并对抗攻击产生更强的鲁棒性。然而,要建立强大的 QAML 工具仍有挑战。本文回顾了 QAML 的最新进展、字典并提出未来的研究方向,以期在量子计算硬件规模扩大和噪声水平降低的情况下实现 QAML 方法的实用性。
Jun, 2023
利用量子力学的独特性质,量子机器学习(QML)在传统系统到达极限时承诺实现计算突破和丰富视角。然而,类似于经典机器学习,QML 也无法免受敌对攻击。量子敌对机器学习在凸显面对敌对性特征向量时的 QML 模型的弱点方面发挥了重要作用。在深入研究这个领域的同时,我们的探索揭示了去极化噪声与对抗鲁棒性之间的相互作用。虽然以前的结果通过去极化噪声增强了抗敌对威胁的鲁棒性,但我们的发现描绘了不同的情况。有趣的是,在多类别分类场景中添加去极化噪声取消了进一步提供鲁棒性的效果。验证我们的发现,我们进行了实验,对基于门的量子模拟器进行了敌对训练的多类别分类器进一步阐明了这种意外行为。
Nov, 2023
量子机器学习模型与经典机器学习模型相似和不同的对抗鲁棒性进行了系统调查,使用了传递攻击、扰动模式和 Lipschitz 界限的方法。发现正则化有助于增强量子网络的鲁棒性,对 Lipschitz 界限和传递攻击有直接影响。
Apr, 2024
这篇论文研究了对抗训练的量子分类器在受限制的白盒攻击下的泛化特性,通过使用攻击感知的或对抗的损失函数进行训练,对量子对手最大化分类器的损失,得到了对抗训练的量子分类器的集成误差的新的信息理论上限,并验证了理论结果在合成环境中的数值实验。
Jan, 2024
基于量子核方法和支持向量机的混合量子分类器容易受到对抗攻击,但基于数据增强的简单防御策略可以使分类器对新攻击具有鲁棒性,这在安全关键学习问题和减轻某些形式的量子噪声的影响中具有应用。
Apr, 2024
本研究使用恶意软件数据集 ClaMP,对传统的神经网络(NN)和量子神经网络(QNN)进行对抗攻击试验。结果发现,机器学习(ML)和量子机器学习(QML)模型均易受对抗攻击影响,尽管 QNN 在攻击后的精度和召回率方面表现更好,但准确率下降得更为显着。此研究为后续增强 ML 和 QML 模型(尤其是 QNN)的安全性和韧性打下了基础。
May, 2023