量子神经网络中有限采样噪声的降低
本文提出了一种基于带限傅里叶展开的量子感知器(QPs)转移函数的模型,用于设计可扩展的训练过程的量子神经网络(QNNs),并在其中添加了一种随机化的量子随机梯度下降技术,消除了样本复制的需要,并证明该训练过程期望收敛于真实最小值,这有助于提高数据效率和遵守禁止复制规则。
Mar, 2022
本文提出了一种端到端的量子神经网络 TTN-VQC,结合了张量列车网络和变分量子电路,进行降维和多功能回归,对其表示和概括能力进行了误差性能分析,证实了在手写数字分类数据集上进行功能回归的实验结果。
Jun, 2022
在嘈杂中等规模量子(NISQ)时代,本研究提出一种使用先验知识和高斯噪声扩散来规范化模型参数的策略,以提高量子变分电路的可训练性并解决梯度问题。实验证明这种方法对超越经典模型的四个公共数据集的可训练性具有改进作用。
May, 2024
本文研究使用变分混合量子 - 经典方案构建的量子神经网络(QNN)的可学习性,我们得出了它对经验风险最小化的效用边界,证明了它可以作为一个差分私有模型来对待,并展示了使用 QNN 可以对某些任务进行运行加速的量子统计查询(QSQ)模型的有效模拟。
Jul, 2020
本篇研究探究了 QNN 在噪声量较高的量子计算机上进行状态辨别的效果,通过引入新的电路技术,并在当前的量子硬件噪声水平下对其进行验证,发现其在较高噪声水平下仍能收敛于有用的参数并用于量子生成对抗网络的分类器。
Nov, 2019
利用神经网络进行零噪音外推,以改善量子计算中噪音对算法准确性和可靠性的限制,展示了使用这种方法在噪音环境下进行量子计算的效果,为在嘈杂的设备上提高 Variational Quantum Eigensolver 计算的准确性铺平了道路。
Mar, 2024
我们研究了使用参数化单量子比特门和固定双量子比特门构建的量子神经网络,研究表明在无限宽度限制下,随机初始化参数的未训练网络生成的函数的概率分布收敛于高斯过程。通过梯度下降法对网络进行训练时,网络可以完美拟合训练集,并且训练后生成的函数概率分布仍然收敛于高斯过程。测量结果的统计噪声对网络的影响在多项式数量的测量下是可忽略的,而且网络的训练时间也是多项式级别的。
Feb, 2024
本文提出一种使用经典神经网络协助量子学习的元学习方法,通过训练经典递归神经网络对 Quantum Approximate Optimization Algorithm (QAOA) for MaxCut,QAOA for Sherrington-Kirkpatrick Ising model 以及 Hubbard model 的参数进行快速优化,以减少优化迭代次数。同时,发现该方法可以推广到其他问题类型,使得量子学习更加高效。
Jul, 2019
我们介绍了一种新型的基于卷积神经网络的量子机器学习模型,并进行了分析。它采用了多尺度纠缠重正化基矢和量子纠错技术,具有高效的训练和实现能力,并展示了两个例子来证明其潜力。首先,我们使用 QCNN 准确识别了与一维对称保护拓扑相关的量子态,并发现其在整个参数范围内都能复制相图。其次,我们利用 QCNN 开发了一种优化给定误差模型的量子纠错方案,并发现其显著优于已知的可比较复杂度的量子码。最后,我们讨论了 QCNN 的潜在实验实现和拓展。
Oct, 2018