关于量子神经网络的可学习性
我们提出了一种真正的量子神经网络模型,其与传统的呈适应性中间层和节点的前馈神经网络具有相同的灵活性,并且具有较低的电路深度和所需的 C-NOT 门数量,从而优于现有的量子神经网络模型。通过对基准数据集进行测试,我们证明了我们的方法的优越性能,并且使用更少的量子资源要求,为将量子神经网络应用于实际相关的机器学习问题铺平了道路。
Feb, 2024
本文提出了一种基于带限傅里叶展开的量子感知器(QPs)转移函数的模型,用于设计可扩展的训练过程的量子神经网络(QNNs),并在其中添加了一种随机化的量子随机梯度下降技术,消除了样本复制的需要,并证明该训练过程期望收敛于真实最小值,这有助于提高数据效率和遵守禁止复制规则。
Mar, 2022
提出一种新型的可伸缩量子卷积神经网络 (sQCNN),并提供了一种名为反保真度训练 (RF-Train) 的训练算法用于提高 sQCNN 的性能。该网络为量子神经网络 (QNN) 的一种进化,拥有处理高维向量输入的能力,并且可以解决传统 QNN 的局限性。
Sep, 2022
量子机器学习需要强大、灵活和高效可训练的模型来成功解决具有挑战性的问题。本文介绍了密度量子神经网络,一种融合了一组可训练酉矩阵的随机化学习模型。这些模型使用参数化量子电路广义化了量子神经网络,并允许在表达能力和高效可训练性之间进行折中,特别适用于量子硬件。我们通过将其应用于两个最近提出的模型族来展示该形式化方法的灵活性。第一个是具有有效可训练性但表达能力可能受限的交换块量子神经网络 (QNNs)。第二个是正交 (保持汉明权重) 量子神经网络,它在数据上提供了定义明确且可解释的转换,但在量子设备上进行大规模训练具有挑战性。密度交换块 QNNs 增加了容量,几乎没有梯度复杂度增加,而密度正交神经网络减少了梯度查询的复杂度,几乎没有性能损失。我们通过对具有超参数优化的合成平移不变数据和 MNIST 图像数据进行数值实验来支持我们的发现。最后,我们讨论了与后变分量量子神经网络、基于测量的量子机器学习和辍学机制之间的联系。
May, 2024
本文开发了一个不可能定理,证明了使用量子神经网络(QNNs)从高保真度的初始状态开始,学习未知量子态的概率随比特数指数级下降,而与电路深度多项式增长,从而对改善 QNNs 的可学习性和可扩展性的好的初始猜测和自适应方法提出了普遍限制,并深化了先验信息在 QNNs 中的作用的理解。
Sep, 2023
本文提出一种使用经典神经网络协助量子学习的元学习方法,通过训练经典递归神经网络对 Quantum Approximate Optimization Algorithm (QAOA) for MaxCut,QAOA for Sherrington-Kirkpatrick Ising model 以及 Hubbard model 的参数进行快速优化,以减少优化迭代次数。同时,发现该方法可以推广到其他问题类型,使得量子学习更加高效。
Jul, 2019
本研究探讨了一种可扩展的量子神经网络(SQNN)方法,通过利用多个小型量子设备的量子资源来提高分类精度和训练效率。 对 MNIST 数据集进行的评估表明,相比于相同规模的常规 QNN 模型, SQNN 模型可以实现具有可比较的分类精度,并且超过一定量子资源的 SQNN 模型可以显著提高分类精度。
Aug, 2022
本篇研究探究了 QNN 在噪声量较高的量子计算机上进行状态辨别的效果,通过引入新的电路技术,并在当前的量子硬件噪声水平下对其进行验证,发现其在较高噪声水平下仍能收敛于有用的参数并用于量子生成对抗网络的分类器。
Nov, 2019
我们介绍了一个可以通过监督学习表示带有标签的数据(经典或量子)并进行训练的量子神经网络。该网络由一系列参数相关的酉变换组成,作用于输入的量子态,可以进行二元分类。我们展示了如何对经典数据集进行分类,并使用实际数据集的例子展示了该网络的应用。
Feb, 2018
该研究对噪声对量子神经网络的影响进行了全面分析,研究了 Mottonen 状态准备算法在各种噪声模型下的表现,并研究了量子状态在多层量子神经网络中的退化。此外,该论文评估了噪声对预训练量子神经网络性能的影响,并强调了噪声模型在量子计算中所带来的挑战。该研究结果对量子软件的发展具有重要意义,强调了在开发可靠和可信赖的量子神经网络时优先考虑稳定性和噪声修正措施的重要性,为量子计算和量子机器学习领域的数据库添砖加瓦,提供了对噪声对量子神经网络影响的新洞察,为更强大和有效的量子算法的发展铺平了道路。
Nov, 2023