量子河豚隐私:用于量子系统的灵活隐私框架
本研究提出了一种基于量子密码原理的全新架构,可用于对生成模型的成员推理攻击进行保障隐私和安全性,通过量子门和酉算子相结合相较于标准差分隐私技术,在保护安全性方面具有内在优势。
Jul, 2023
该论文提出了一种用于检测量子算法差分隐私违反的正式框架,并使用Tensor Networks数据结构在TensorFlow Quantum和TorchQuantum两个量子扩展机器学习平台上实现了高效的算法,验证了其对各种类型的量子算法的有效性和效率。
Sep, 2023
基于量子二分相干算法,我们介绍了新颖的盲量子机器学习协议,具有降低的通信开销,同时保持了来自不可信计算节点的数据隐私。我们引入了具有低计算开销的鲁棒算法特定的隐私保护机制,不需要复杂的密码学技术。通过复杂度和隐私分析,我们验证了提议协议的有效性。我们的研究结果为分布式量子计算铺平了道路,为量子技术时代的隐私感知机器学习应用开辟了新的可能性。
Oct, 2023
在分布式量子计算中,隐私保护一直是一个重要挑战,本文提出了两种基于量子状态的联邦学习协议,旨在优化隐私保护措施和通信效率,为高效的基于量子通信的联邦学习协议的发展以及安全的分布式量子机器学习做出了重要贡献。
Dec, 2023
Pufferfish隐私是差分隐私的一种灵活泛化,允许对任意机密信息进行建模,并考虑到对手对数据的先前知识。我们引入了一种基于Rényi散度的Pufferfish变体,并展示它的应用拓展性。我们首先推广了Wasserstein机制,涵盖了各种噪声分布并提高了其效用。我们还对抗了对手的分布外攻击,并证明了压缩有噪声迭代的隐私放大结果,并展示了在私有凸优化中Pufferfish的第一个使用。我们的结果的一个公共要素是使用和扩展转移减少引理。
Dec, 2023
保证数据隐私在机器学习模型中至关重要,尤其是在分布式环境中,其中模型梯度通常在多个参与方之间共享,以实现协同学习。该研究揭示了基于量子机器学习模型的梯度中恢复输入数据的困难程度,并发现了动力学李代数在决定隐私漏洞方面的重要作用。研究结果显示,作为学习模型的变分量子电路的动力学李代数的某些特性可能导致隐私泄露,使得能够从输入数据的快照中训练用于不同学习任务的变分量子电路模型。此外,研究还探讨了从这些快照中恢复原始输入数据的条件,建立了与编码映射、动力学李代数基的重合度以及傅里叶频率特性等相关的条件,从而使得用于近似多项式时间恢复原始输入数据的经典或量子辅助方法成为可能。因此,该研究的发现对于指导设计平衡可训练性和强大隐私保护的量子机器学习模型的要求至关重要。
May, 2024