量子神经网络中量子态学习过程的统计分析
我们介绍了一个可以通过监督学习表示带有标签的数据(经典或量子)并进行训练的量子神经网络。该网络由一系列参数相关的酉变换组成,作用于输入的量子态,可以进行二元分类。我们展示了如何对经典数据集进行分类,并使用实际数据集的例子展示了该网络的应用。
Feb, 2018
本篇研究探究了 QNN 在噪声量较高的量子计算机上进行状态辨别的效果,通过引入新的电路技术,并在当前的量子硬件噪声水平下对其进行验证,发现其在较高噪声水平下仍能收敛于有用的参数并用于量子生成对抗网络的分类器。
Nov, 2019
本文提出了一种基于带限傅里叶展开的量子感知器(QPs)转移函数的模型,用于设计可扩展的训练过程的量子神经网络(QNNs),并在其中添加了一种随机化的量子随机梯度下降技术,消除了样本复制的需要,并证明该训练过程期望收敛于真实最小值,这有助于提高数据效率和遵守禁止复制规则。
Mar, 2022
本文研究使用变分混合量子 - 经典方案构建的量子神经网络(QNN)的可学习性,我们得出了它对经验风险最小化的效用边界,证明了它可以作为一个差分私有模型来对待,并展示了使用 QNN 可以对某些任务进行运行加速的量子统计查询(QSQ)模型的有效模拟。
Jul, 2020
本文提出一种使用经典神经网络协助量子学习的元学习方法,通过训练经典递归神经网络对 Quantum Approximate Optimization Algorithm (QAOA) for MaxCut,QAOA for Sherrington-Kirkpatrick Ising model 以及 Hubbard model 的参数进行快速优化,以减少优化迭代次数。同时,发现该方法可以推广到其他问题类型,使得量子学习更加高效。
Jul, 2019
本文提出了一种新颖的元优化算法,通过对量子电路的参数进行元优化,从而最小化目标函数,避免了经典梯度优化的局限性,通过实验和理论论证,在不同数据集上,相比现有基于梯度的算法,该方法可以更快更稳定地达到更好的效果。
Apr, 2023
通过结合机器学习和量子 Monte Carlo 的见解,采用神经网络 Ansatz 状态的随机重构方法是量子多体问题高精度基态估计的一个有前途的新方向。虽然该方法在实践中表现良好,但对学习动态了解甚少。本文通过分析学习景观,揭示了算法的一些隐藏细节。
Oct, 2019
研究证明在量子神经网络中,基于 Haar 随机酉或正交深度 QNN 的输出会在大 Hilbert 空间维度 d 下收敛到高斯过程,但无法通过贝叶斯统计有效预测其输出,且浓缩度现象比以前预想的更糟,因为期望值和梯度浓缩为 O(1/e^d * sqrt(d))-- 在希尔伯特空间维度上呈指数级。
May, 2023
我们提出了一种真正的量子神经网络模型,其与传统的呈适应性中间层和节点的前馈神经网络具有相同的灵活性,并且具有较低的电路深度和所需的 C-NOT 门数量,从而优于现有的量子神经网络模型。通过对基准数据集进行测试,我们证明了我们的方法的优越性能,并且使用更少的量子资源要求,为将量子神经网络应用于实际相关的机器学习问题铺平了道路。
Feb, 2024
量子机器学习需要强大、灵活和高效可训练的模型来成功解决具有挑战性的问题。本文介绍了密度量子神经网络,一种融合了一组可训练酉矩阵的随机化学习模型。这些模型使用参数化量子电路广义化了量子神经网络,并允许在表达能力和高效可训练性之间进行折中,特别适用于量子硬件。我们通过将其应用于两个最近提出的模型族来展示该形式化方法的灵活性。第一个是具有有效可训练性但表达能力可能受限的交换块量子神经网络 (QNNs)。第二个是正交 (保持汉明权重) 量子神经网络,它在数据上提供了定义明确且可解释的转换,但在量子设备上进行大规模训练具有挑战性。密度交换块 QNNs 增加了容量,几乎没有梯度复杂度增加,而密度正交神经网络减少了梯度查询的复杂度,几乎没有性能损失。我们通过对具有超参数优化的合成平移不变数据和 MNIST 图像数据进行数值实验来支持我们的发现。最后,我们讨论了与后变分量量子神经网络、基于测量的量子机器学习和辍学机制之间的联系。
May, 2024