在 Ising 机上训练多层神经网络
本文介绍了一种新的方法,使用平衡传播算法对 Ising 机器进行监督训练,获得与软件实现相当的结果。我们使用 D-Wave Ising 机器的量子退火程序在 MNIST 数据集上训练全连接神经网络,并且证明了该机器的连通性支持卷积操作,从而实现了每个神经元最小旋转的紧凑卷积网络的训练。这些发现将 Ising 机器作为一种有前途的可训练硬件平台,具有提高机器学习应用的潜力。
May, 2023
本研究提出量子机器学习模型 ——Ising Born Machine(IBM)并使用斯坦偏差和 Sinkhorn 分歧两种方法进行训练,结果表明这两种方法优于最常使用的最大平均偏差(MMD)训练方法,同时 IBM 不可能被古典设备高效模拟。
Apr, 2019
提出了一个基于 Ising 结构的新型机器学习模型,可以通过梯度下降进行高效训练,实验证明了 Ising 机器在不同的学习任务中的新可能性,尤其在量子机器学习领域中,量子资源被用于模型的执行和训练,提供了有希望的前景。
Oct, 2023
我们提出了一种真正的量子神经网络模型,其与传统的呈适应性中间层和节点的前馈神经网络具有相同的灵活性,并且具有较低的电路深度和所需的 C-NOT 门数量,从而优于现有的量子神经网络模型。通过对基准数据集进行测试,我们证明了我们的方法的优越性能,并且使用更少的量子资源要求,为将量子神经网络应用于实际相关的机器学习问题铺平了道路。
Feb, 2024
量子机器学习需要强大、灵活和高效可训练的模型来成功解决具有挑战性的问题。本文介绍了密度量子神经网络,一种融合了一组可训练酉矩阵的随机化学习模型。这些模型使用参数化量子电路广义化了量子神经网络,并允许在表达能力和高效可训练性之间进行折中,特别适用于量子硬件。我们通过将其应用于两个最近提出的模型族来展示该形式化方法的灵活性。第一个是具有有效可训练性但表达能力可能受限的交换块量子神经网络 (QNNs)。第二个是正交 (保持汉明权重) 量子神经网络,它在数据上提供了定义明确且可解释的转换,但在量子设备上进行大规模训练具有挑战性。密度交换块 QNNs 增加了容量,几乎没有梯度复杂度增加,而密度正交神经网络减少了梯度查询的复杂度,几乎没有性能损失。我们通过对具有超参数优化的合成平移不变数据和 MNIST 图像数据进行数值实验来支持我们的发现。最后,我们讨论了与后变分量量子神经网络、基于测量的量子机器学习和辍学机制之间的联系。
May, 2024
量子机器学习与经典机器学习中的核方法有相似之处,本研究探索了将经典神经网络与量子退火机连接的设置,并模拟了其在分类问题上的性能,发现加入小型量子退火机并不能显著提高性能。
Aug, 2023
本研究探讨了一种可扩展的量子神经网络(SQNN)方法,通过利用多个小型量子设备的量子资源来提高分类精度和训练效率。 对 MNIST 数据集进行的评估表明,相比于相同规模的常规 QNN 模型, SQNN 模型可以实现具有可比较的分类精度,并且超过一定量子资源的 SQNN 模型可以显著提高分类精度。
Aug, 2022
高性能计算的效率提升趋于尽头,传统的 CMOS 技术面临物理极限,Miniaturization 无法继续进行;以 Ising 模型为基础的计算系统能够接近热力学极限下的能耗,同时兼具逻辑和存储功能,潜在降低 CMOS 计算中昂贵的数据迁移造成的能源成本;本文的贡献是提出一种结合深度神经网络和随机森林的机器学习方法,用于高效解决 Ising 模型中最小化误差的优化问题,并提供一种将 Boltzmann 概率优化问题转化为监督式机器学习问题的过程。
Jan, 2024
我们介绍了一种新型的基于卷积神经网络的量子机器学习模型,并进行了分析。它采用了多尺度纠缠重正化基矢和量子纠错技术,具有高效的训练和实现能力,并展示了两个例子来证明其潜力。首先,我们使用 QCNN 准确识别了与一维对称保护拓扑相关的量子态,并发现其在整个参数范围内都能复制相图。其次,我们利用 QCNN 开发了一种优化给定误差模型的量子纠错方案,并发现其显著优于已知的可比较复杂度的量子码。最后,我们讨论了 QCNN 的潜在实验实现和拓展。
Oct, 2018