使用通用绝热量子计算训练神经网络
本文提出一种使用经典神经网络协助量子学习的元学习方法,通过训练经典递归神经网络对 Quantum Approximate Optimization Algorithm (QAOA) for MaxCut,QAOA for Sherrington-Kirkpatrick Ising model 以及 Hubbard model 的参数进行快速优化,以减少优化迭代次数。同时,发现该方法可以推广到其他问题类型,使得量子学习更加高效。
Jul, 2019
本研究提出了一种新的量子神经网络模型,使用实际存在的环境诱导的退相干的量子系统上的 (经典控制的) 单量子比特操作和测量,从而极大地降低了物理实现的难度。该模型在手写数字识别和其他非线性分类任务中具有优异的非线性分类能力和对噪声的鲁棒性。
May, 2023
本研究探究了使用 D-Wave 量子退火机器从 Restricted Boltzmann Machines 中生成样本来估计模型期望值的新方法,并在较粗粒度的 MNIST 数据集上进行训练测试,结果表明基于量子取样的训练方法可以在相对较少的生成性训练迭代次数内实现与传统 CD 方法相当或更高的精度。
Oct, 2015
本文介绍了一种利用绝热量子计算方法求解线性回归模型的方案,并将回归问题转化为二次无约束二进制优化问题,测试表明该方法在较大的数据集上比传统方法快 2.8 倍,并在回归误差指标上表现不逊于传统方法。
Aug, 2020
量子机器学习需要强大、灵活和高效可训练的模型来成功解决具有挑战性的问题。本文介绍了密度量子神经网络,一种融合了一组可训练酉矩阵的随机化学习模型。这些模型使用参数化量子电路广义化了量子神经网络,并允许在表达能力和高效可训练性之间进行折中,特别适用于量子硬件。我们通过将其应用于两个最近提出的模型族来展示该形式化方法的灵活性。第一个是具有有效可训练性但表达能力可能受限的交换块量子神经网络 (QNNs)。第二个是正交 (保持汉明权重) 量子神经网络,它在数据上提供了定义明确且可解释的转换,但在量子设备上进行大规模训练具有挑战性。密度交换块 QNNs 增加了容量,几乎没有梯度复杂度增加,而密度正交神经网络减少了梯度查询的复杂度,几乎没有性能损失。我们通过对具有超参数优化的合成平移不变数据和 MNIST 图像数据进行数值实验来支持我们的发现。最后,我们讨论了与后变分量量子神经网络、基于测量的量子机器学习和辍学机制之间的联系。
May, 2024
本文提出了一种新颖的元优化算法,通过对量子电路的参数进行元优化,从而最小化目标函数,避免了经典梯度优化的局限性,通过实验和理论论证,在不同数据集上,相比现有基于梯度的算法,该方法可以更快更稳定地达到更好的效果。
Apr, 2023
本文研究如何在量子领域扩展敌对训练的概念,并展示如何构建使用量子电路的生成性对抗网络。我们还展示了如何利用另一个量子电路计算梯度,同时提供了一个简单实用的电路 ansatz 来参数化量子机器学习模型,并进行了简单的数值实验以证明量子生成对抗网络可以成功地进行训练。
Apr, 2018
我们描述了一种用于训练支持向量机的绝热量子方法,该方法的量子计算时间复杂度比经典方法好一个数量级,我们在五个基准数据集上比较了量子方法和经典方法的测试准确度,在可扩展性研究中,我们发现量子方法在具有许多特征的数据集上比经典方法快 3.5-4.5 倍。
Jan, 2024
我们提出一种基于费米模型的量子神经网络,其物理特性作为输出,并建立了与反向传播相媲美的高效优化,在具有挑战性的经典机器学习基准上具有竞争力的准确度,并且在量子系统上实现高精度且不需要预处理的机器学习,此外研究结果可用于量子纠缠分析和可解释的机器学习。
Nov, 2022
本研究探讨了一种可扩展的量子神经网络(SQNN)方法,通过利用多个小型量子设备的量子资源来提高分类精度和训练效率。 对 MNIST 数据集进行的评估表明,相比于相同规模的常规 QNN 模型, SQNN 模型可以实现具有可比较的分类精度,并且超过一定量子资源的 SQNN 模型可以显著提高分类精度。
Aug, 2022