利用内在噪声进行量子机器学习隐私保护
本文介绍了一种基于Blind quantum computing的量子协议,用于单方委派训练和多方私有分布式学习。该协议在差分隐私的保护下是安全的,并且在实验不完美的情况下具有鲁棒性和处理具有隐私保障的计算密集型分布式学习任务的潜力,为探索机器学习领域中的安全性量子优势提供了有价值的指导。
Mar, 2021
该论文提出了一种用于检测量子算法差分隐私违反的正式框架,并使用Tensor Networks数据结构在TensorFlow Quantum和TorchQuantum两个量子扩展机器学习平台上实现了高效的算法,验证了其对各种类型的量子算法的有效性和效率。
Sep, 2023
使用具有表达性编码映射和超参数化参量的变分量子电路模型引入了联邦学习,显示了表达性映射对抗梯度反演攻击具有内在隐私保护能力,而超参数化则确保了模型的可训练性。同时,通过数值扩展论证了攻击模型中表达性映射的欠参数化导致丢失地形被大量虚假局部极小点淹没,使得攻击难以成功,从而强有力地宣称量子机器学习模型的本质性质有助于防止联邦学习中的数据泄露。
Sep, 2023
基于量子二分相干算法,我们介绍了新颖的盲量子机器学习协议,具有降低的通信开销,同时保持了来自不可信计算节点的数据隐私。我们引入了具有低计算开销的鲁棒算法特定的隐私保护机制,不需要复杂的密码学技术。通过复杂度和隐私分析,我们验证了提议协议的有效性。我们的研究结果为分布式量子计算铺平了道路,为量子技术时代的隐私感知机器学习应用开辟了新的可能性。
Oct, 2023
在分布式量子计算中,隐私保护一直是一个重要挑战,本文提出了两种基于量子状态的联邦学习协议,旨在优化隐私保护措施和通信效率,为高效的基于量子通信的联邦学习协议的发展以及安全的分布式量子机器学习做出了重要贡献。
Dec, 2023
通过构建一类本质上为ε-差分隐私的噪声通道,我们成功地复制了退极化和随机旋转通道的ε-差分隐私边界,从而验证了我们框架的广阔普遍性。我们还使用半定规划构建了一个最优鲁棒通道,在小规模实验评估中证明了使用最优噪声通道相对于退极化噪声的好处,特别是在提高对抗精度方面。此外,我们评估了变量α和γ对可认证的鲁棒性的影响,并研究了不同编码方法对分类器鲁棒性的影响。
Apr, 2024
保证数据隐私在机器学习模型中至关重要,尤其是在分布式环境中,其中模型梯度通常在多个参与方之间共享,以实现协同学习。该研究揭示了基于量子机器学习模型的梯度中恢复输入数据的困难程度,并发现了动力学李代数在决定隐私漏洞方面的重要作用。研究结果显示,作为学习模型的变分量子电路的动力学李代数的某些特性可能导致隐私泄露,使得能够从输入数据的快照中训练用于不同学习任务的变分量子电路模型。此外,研究还探讨了从这些快照中恢复原始输入数据的条件,建立了与编码映射、动力学李代数基的重合度以及傅里叶频率特性等相关的条件,从而使得用于近似多项式时间恢复原始输入数据的经典或量子辅助方法成为可能。因此,该研究的发现对于指导设计平衡可训练性和强大隐私保护的量子机器学习模型的要求至关重要。
May, 2024
通过使用量子机器学习算法,研究结果表明对抗性攻击具有一定的量子保护性,能够提供对机器学习算法的鲁棒性,使其对数据扰动、局部攻击和普遍对抗性攻击具有一定的保护能力。
May, 2024
本研究针对量子计算在现实应用中的性能与安全问题进行了探讨,填补了量子机器学习与经典机器学习比较的研究空白。通过对阿尔茨海默病数据集的案例分析,我们发现量子机器学习算法在性能上有潜力,但尚未超越经典算法,并且在运行模拟时对资源的需求较高。此外,量子机器学习也继承了经典算法的脆弱性,并引入了新的攻击路径。
Aug, 2024