递归量子神经网络
我们提出了一种真正的量子神经网络模型,其与传统的呈适应性中间层和节点的前馈神经网络具有相同的灵活性,并且具有较低的电路深度和所需的 C-NOT 门数量,从而优于现有的量子神经网络模型。通过对基准数据集进行测试,我们证明了我们的方法的优越性能,并且使用更少的量子资源要求,为将量子神经网络应用于实际相关的机器学习问题铺平了道路。
Feb, 2024
本文介绍了一种新型的神经序列建模方法 - 准循环神经网络(QRNNs),通过卷积层与最小化的循环池化函数的交替使用,QRNNs 可以在高度并行的情况下完成对序列数据的建模,并且在语言建模、情感分类和字符级神经机器翻译等任务中显示出比基于 LSTM 的架构更优异的性能。
Nov, 2016
量子机器学习需要强大、灵活和高效可训练的模型来成功解决具有挑战性的问题。本文介绍了密度量子神经网络,一种融合了一组可训练酉矩阵的随机化学习模型。这些模型使用参数化量子电路广义化了量子神经网络,并允许在表达能力和高效可训练性之间进行折中,特别适用于量子硬件。我们通过将其应用于两个最近提出的模型族来展示该形式化方法的灵活性。第一个是具有有效可训练性但表达能力可能受限的交换块量子神经网络 (QNNs)。第二个是正交 (保持汉明权重) 量子神经网络,它在数据上提供了定义明确且可解释的转换,但在量子设备上进行大规模训练具有挑战性。密度交换块 QNNs 增加了容量,几乎没有梯度复杂度增加,而密度正交神经网络减少了梯度查询的复杂度,几乎没有性能损失。我们通过对具有超参数优化的合成平移不变数据和 MNIST 图像数据进行数值实验来支持我们的发现。最后,我们讨论了与后变分量量子神经网络、基于测量的量子机器学习和辍学机制之间的联系。
May, 2024
本研究探讨了一种可扩展的量子神经网络(SQNN)方法,通过利用多个小型量子设备的量子资源来提高分类精度和训练效率。 对 MNIST 数据集进行的评估表明,相比于相同规模的常规 QNN 模型, SQNN 模型可以实现具有可比较的分类精度,并且超过一定量子资源的 SQNN 模型可以显著提高分类精度。
Aug, 2022
本文介绍了使用量子循环神经网络和深度 Q-learning 算法来解决部分可观察环境中的量子强化学习问题,并且在数值模拟中证明了该方法在标准基准测试如 Cart-Pole 中的结果比经典 DRQN 更加稳定和具有更高的平均分数。
Oct, 2022
我们介绍了一种新型的基于卷积神经网络的量子机器学习模型,并进行了分析。它采用了多尺度纠缠重正化基矢和量子纠错技术,具有高效的训练和实现能力,并展示了两个例子来证明其潜力。首先,我们使用 QCNN 准确识别了与一维对称保护拓扑相关的量子态,并发现其在整个参数范围内都能复制相图。其次,我们利用 QCNN 开发了一种优化给定误差模型的量子纠错方案,并发现其显著优于已知的可比较复杂度的量子码。最后,我们讨论了 QCNN 的潜在实验实现和拓展。
Oct, 2018
本文研究了基于神经网络的方法,能够预测量子系统的演化轨迹,同时提取系统哈密顿量,测量算符和物理参数。该方法可用于噪声表征,参数估计,反馈和优化量子控制。
Nov, 2018
借助密度矩阵形式主义,设计了一种特定的模拟方法,以探索 Quantum Recurrent Neural Networks(QRNNs)的潜力,并且能够通过捕捉不同复杂性的输入序列的非平凡模式,准确预测未来的值。
Oct, 2023
通过构建基于 QRNN 的储层,并利用 QLSTM 构建量子强化学习代理,本文提出了一种新方法以应对 QRNN 在 QRL 中训练低效的挑战,并使用异步优势演员 - 评论家算法进行训练。通过数值模拟验证了 QLSTM-Reservoir RL 框架的有效性,并通过与完全训练的 QLSTM RL 模型在相同架构和训练设置下的性能进行评估。
Sep, 2023