量子分类器的对抗鲁棒性保证
机器学习和量子计算的结合有潜力提供更高的准确性和计算效率,并对抗攻击产生更强的鲁棒性。然而,要建立强大的 QAML 工具仍有挑战。本文回顾了 QAML 的最新进展、字典并提出未来的研究方向,以期在量子计算硬件规模扩大和噪声水平降低的情况下实现 QAML 方法的实用性。
Jun, 2023
量子机器学习模型与经典机器学习模型相似和不同的对抗鲁棒性进行了系统调查,使用了传递攻击、扰动模式和 Lipschitz 界限的方法。发现正则化有助于增强量子网络的鲁棒性,对 Lipschitz 界限和传递攻击有直接影响。
Apr, 2024
基于量子核方法和支持向量机的混合量子分类器容易受到对抗攻击,但基于数据增强的简单防御策略可以使分类器对新攻击具有鲁棒性,这在安全关键学习问题和减轻某些形式的量子噪声的影响中具有应用。
Apr, 2024
本文报道了第一个用可编程超导量子位的量子对抗学习实验,结果表明量子学习系统在对抗场景下存在一定的易受攻击性,并证明了对抗训练过程可以显著增强其抵御干扰性攻击的鲁棒性。
Apr, 2022
探讨量子信息可以用于使量子分类器更安全或私密的若干方法,包括鲁棒主成分分析、量子 bagging 和 boosting 以及私有的 k-means 聚类。展示了量子技术在机器学习安全领域的作用,除了速度提升外,还可以为机器学习提供有用的优势。
Nov, 2017
QuGAP 是一个用于生成量子分类器的通用对抗扰动(UAPs)的新框架,它利用生成模型生成加性 UAPs,并理论上证明它们的存在。此外,QuGAP 使用基于保真度约束的新型损失函数,采用量子生成模型生成酉 UAPs,实验证明了量子分类器容易受到此类攻击,并且取得了最先进的误分类率和高保真度。
Feb, 2024
利用量子力学的独特性质,量子机器学习(QML)在传统系统到达极限时承诺实现计算突破和丰富视角。然而,类似于经典机器学习,QML 也无法免受敌对攻击。量子敌对机器学习在凸显面对敌对性特征向量时的 QML 模型的弱点方面发挥了重要作用。在深入研究这个领域的同时,我们的探索揭示了去极化噪声与对抗鲁棒性之间的相互作用。虽然以前的结果通过去极化噪声增强了抗敌对威胁的鲁棒性,但我们的发现描绘了不同的情况。有趣的是,在多类别分类场景中添加去极化噪声取消了进一步提供鲁棒性的效果。验证我们的发现,我们进行了实验,对基于门的量子模拟器进行了敌对训练的多类别分类器进一步阐明了这种意外行为。
Nov, 2023
本文发现在两个不同的分类任务中,即便是能够实现几乎达到最先进水平分类精度的量子分类器也能被一个精心设计的通用扰动彻底欺骗,为实现异构分类任务生成通用扰动提供了一个简单而有效的方法,从而为未来的量子学习技术提供有价值的指导。
Jun, 2023
这篇论文研究了对抗训练的量子分类器在受限制的白盒攻击下的泛化特性,通过使用攻击感知的或对抗的损失函数进行训练,对量子对手最大化分类器的损失,得到了对抗训练的量子分类器的集成误差的新的信息理论上限,并验证了理论结果在合成环境中的数值实验。
Jan, 2024