利用内在噪声进行量子机器学习隐私保护
该研究探索了量子计算和机器学习的交叉领域,着重评估数据重新上传方案和补丁生成对抗网络模型等混合量子 - 经典算法在小规模量子设备上的有效性,并通过实际实现和测试揭示了这些算法与经典对应算法相当或更好的性能,突显了在机器学习任务中利用量子算法的潜力。
Apr, 2024
保证数据隐私在机器学习模型中至关重要,尤其是在分布式环境中,其中模型梯度通常在多个参与方之间共享,以实现协同学习。该研究揭示了基于量子机器学习模型的梯度中恢复输入数据的困难程度,并发现了动力学李代数在决定隐私漏洞方面的重要作用。研究结果显示,作为学习模型的变分量子电路的动力学李代数的某些特性可能导致隐私泄露,使得能够从输入数据的快照中训练用于不同学习任务的变分量子电路模型。此外,研究还探讨了从这些快照中恢复原始输入数据的条件,建立了与编码映射、动力学李代数基的重合度以及傅里叶频率特性等相关的条件,从而使得用于近似多项式时间恢复原始输入数据的经典或量子辅助方法成为可能。因此,该研究的发现对于指导设计平衡可训练性和强大隐私保护的量子机器学习模型的要求至关重要。
May, 2024
通过构建一类本质上为 ε- 差分隐私的噪声通道,我们成功地复制了退极化和随机旋转通道的 ε- 差分隐私边界,从而验证了我们框架的广阔普遍性。我们还使用半定规划构建了一个最优鲁棒通道,在小规模实验评估中证明了使用最优噪声通道相对于退极化噪声的好处,特别是在提高对抗精度方面。此外,我们评估了变量 α 和 γ 对可认证的鲁棒性的影响,并研究了不同编码方法对分类器鲁棒性的影响。
Apr, 2024
利用量子力学的独特性质,量子机器学习(QML)在传统系统到达极限时承诺实现计算突破和丰富视角。然而,类似于经典机器学习,QML 也无法免受敌对攻击。量子敌对机器学习在凸显面对敌对性特征向量时的 QML 模型的弱点方面发挥了重要作用。在深入研究这个领域的同时,我们的探索揭示了去极化噪声与对抗鲁棒性之间的相互作用。虽然以前的结果通过去极化噪声增强了抗敌对威胁的鲁棒性,但我们的发现描绘了不同的情况。有趣的是,在多类别分类场景中添加去极化噪声取消了进一步提供鲁棒性的效果。验证我们的发现,我们进行了实验,对基于门的量子模拟器进行了敌对训练的多类别分类器进一步阐明了这种意外行为。
Nov, 2023
本文研究使用变分混合量子 - 经典方案构建的量子神经网络(QNN)的可学习性,我们得出了它对经验风险最小化的效用边界,证明了它可以作为一个差分私有模型来对待,并展示了使用 QNN 可以对某些任务进行运行加速的量子统计查询(QSQ)模型的有效模拟。
Jul, 2020
介绍了 QuantumLeak,一种从基于云计算的 NISQ 机器中提取 QNN 模型的有效准确的技术,相比现有的经典模型窃取技术,QuantumLeak 在各种数据集和 VQC 架构上提高了 4.99%~7.35% 的本地 VQC 准确度。
Mar, 2024
云端托管的量子机器学习(QML)模型面临许多漏洞,其中最重要的是模型窃取攻击。本研究评估了这些攻击在量子计算领域的效果,利用多个 QML 模型体系结构在不同数据集上进行了全面的实验。实验结果显示,使用 Top-1 和 Top-k(k: num_classes)标签进行训练的模型窃取攻击可以产生克隆模型,其克隆测试准确率分别达到原模型的 0.9 倍和 0.99 倍。为了防御这些攻击,我们利用当前嘈杂硬件的独特属性扰乱了受害模型的输出,阻碍了攻击者的训练过程。具体来说,我们提出了两种方法:1)硬件变化诱发的扰动(HVIP)和 2)硬件和模型结构变化诱发的扰动(HAVIP)。虽然噪声和架构的可变性可以提供约 16% 的输出混淆,但我们的综合分析表明,在噪声条件下克隆的模型往往是弹性的,由于这种混淆几乎不会导致性能下降。尽管我们的防御技术取得了有限的成功,但这种结果导致了一项重要发现:在噪声硬件上训练的 QML 模型对扰动或混淆性的防御或攻击具有天然的抵抗力。
Feb, 2024
量子机器学习的综述,包括在量子设备上运行机器学习算法的各种概念,介绍了在 Noisy Intermediate-Scale Quantum (NISQ) 技术中使用的技术和与容错量子计算硬件兼容的算法方法,同时涵盖了量子机器学习的基本概念、算法和与其相关的统计学习理论。
Jan, 2024
针对物联网设备需求趋升,要求在边缘实时、高效、安全地处理数据的机器学习需求,本研究提出了一种新的隐私保护量化方法 RQP-SGD,结合差分隐私随机梯度下降(DP-SGD)与随机量化,实现低内存机器学习模型的训练,同时保护底层数据集的隐私并展示了其在凸目标和量化约束下的实用性和有效性。
Feb, 2024