本研究探讨了一种可扩展的量子神经网络(SQNN)方法,通过利用多个小型量子设备的量子资源来提高分类精度和训练效率。 对 MNIST 数据集进行的评估表明,相比于相同规模的常规 QNN 模型, SQNN 模型可以实现具有可比较的分类精度,并且超过一定量子资源的 SQNN 模型可以显著提高分类精度。
Aug, 2022
我们介绍了一种新型的基于卷积神经网络的量子机器学习模型,并进行了分析。它采用了多尺度纠缠重正化基矢和量子纠错技术,具有高效的训练和实现能力,并展示了两个例子来证明其潜力。首先,我们使用 QCNN 准确识别了与一维对称保护拓扑相关的量子态,并发现其在整个参数范围内都能复制相图。其次,我们利用 QCNN 开发了一种优化给定误差模型的量子纠错方案,并发现其显著优于已知的可比较复杂度的量子码。最后,我们讨论了 QCNN 的潜在实验实现和拓展。
Oct, 2018
本研究探讨了在量子计算环境中使用多尺度纠缠重整化 ANSATZ 计算的量子卷积神经网络 (QCNN) 和将 QCNN 层添加到现有的 CNN 学习模型中以提高性能的方法,并通过与 TensorFlow Quantum 平台中使用的 MNIST 数据集的训练验证了 QCNN 模型的高效学习能力。
Sep, 2020
该论文介绍了一个能够处理任意输入数据维度的量子卷积神经网络 (QCNN) 架构,优化了量子资源的分配,达到了优秀的分类性能,同时最小化了资源开销,为噪声和不完美情况下可靠量子计算提供了最佳解决方案。
Mar, 2024
本文提出了一种混合量子 - 经典卷积神经网络框架(QCCNN),它结合了卷积神经网络的重要特征以及量子计算特有的优势,适用于当前嘈杂的中尺度量子计算机,并通过 Tetris 数据集的分类任务证明了其优越性能。
Nov, 2019
我们提出了一种真正的量子神经网络模型,其与传统的呈适应性中间层和节点的前馈神经网络具有相同的灵活性,并且具有较低的电路深度和所需的 C-NOT 门数量,从而优于现有的量子神经网络模型。通过对基准数据集进行测试,我们证明了我们的方法的优越性能,并且使用更少的量子资源要求,为将量子神经网络应用于实际相关的机器学习问题铺平了道路。
Feb, 2024
本文研究使用变分混合量子 - 经典方案构建的量子神经网络(QNN)的可学习性,我们得出了它对经验风险最小化的效用边界,证明了它可以作为一个差分私有模型来对待,并展示了使用 QNN 可以对某些任务进行运行加速的量子统计查询(QSQ)模型的有效模拟。
Jul, 2020
本文研究量子卷积神经网络与经典卷积神经网络、人工 / 经典神经网络模型之间的潜力差异,研究表明,根据输入大小和批量大小,量子卷积神经网络有可能在准确性和效率上胜过经典卷积神经网络和人工神经网络,表现出作为机器学习领域中强大工具的潜力。
Jul, 2023
本文提出了一种 split-parallelizing QCNN 架构,通过基于平移对称性拆分量子电路,从而实现了对传统 QCNN 的显著并行,并进一步将计算开销降低到量子位数的数量级,从而改善了量子机器学习的成果表现,为实用性提供了新的可能性,该方法在具有传递对称性的量子数据中的应用效果显著。
Jun, 2023
提出了一种基于量子卷积的全新量子神经网络模型,该模型通过引入多尺度特征融合机制和量子深度卷积来提高模型性能,并通过实验证明其在文本分类任务上优于现有量子神经网络模型,同时在使用更少参数的情况下提高了测试精度。
May, 2024