量子神经网络压缩
本研究探讨了一种可扩展的量子神经网络(SQNN)方法,通过利用多个小型量子设备的量子资源来提高分类精度和训练效率。 对 MNIST 数据集进行的评估表明,相比于相同规模的常规 QNN 模型, SQNN 模型可以实现具有可比较的分类精度,并且超过一定量子资源的 SQNN 模型可以显著提高分类精度。
Aug, 2022
量子机器学习需要强大、灵活和高效可训练的模型来成功解决具有挑战性的问题。本文介绍了密度量子神经网络,一种融合了一组可训练酉矩阵的随机化学习模型。这些模型使用参数化量子电路广义化了量子神经网络,并允许在表达能力和高效可训练性之间进行折中,特别适用于量子硬件。我们通过将其应用于两个最近提出的模型族来展示该形式化方法的灵活性。第一个是具有有效可训练性但表达能力可能受限的交换块量子神经网络 (QNNs)。第二个是正交 (保持汉明权重) 量子神经网络,它在数据上提供了定义明确且可解释的转换,但在量子设备上进行大规模训练具有挑战性。密度交换块 QNNs 增加了容量,几乎没有梯度复杂度增加,而密度正交神经网络减少了梯度查询的复杂度,几乎没有性能损失。我们通过对具有超参数优化的合成平移不变数据和 MNIST 图像数据进行数值实验来支持我们的发现。最后,我们讨论了与后变分量量子神经网络、基于测量的量子机器学习和辍学机制之间的联系。
May, 2024
该论文介绍了一种名为 “深度压缩” 的技术,通过三阶段的网络压缩流程 —— 剪枝、量化和霍夫曼编码 —— 可以将神经网络模型的存储资源需求减小 35 到 49 倍,而同时不影响网络的准确性,该技术可以在嵌入式系统中使用,可以极大地提升模型的应用性能。
Oct, 2015
我们提出了一种真正的量子神经网络模型,其与传统的呈适应性中间层和节点的前馈神经网络具有相同的灵活性,并且具有较低的电路深度和所需的 C-NOT 门数量,从而优于现有的量子神经网络模型。通过对基准数据集进行测试,我们证明了我们的方法的优越性能,并且使用更少的量子资源要求,为将量子神经网络应用于实际相关的机器学习问题铺平了道路。
Feb, 2024
研究利用机器学习技术开发量子计算算法的一种新思路,通过对比标准实值和复值经典神经网络与量子神经网络性能的实验表明,量子神经网络能够用更少的反向传播次数和更小的网络模型获得相媲美甚至更好的结果。
Jul, 2018
我们介绍了一种新型的基于卷积神经网络的量子机器学习模型,并进行了分析。它采用了多尺度纠缠重正化基矢和量子纠错技术,具有高效的训练和实现能力,并展示了两个例子来证明其潜力。首先,我们使用 QCNN 准确识别了与一维对称保护拓扑相关的量子态,并发现其在整个参数范围内都能复制相图。其次,我们利用 QCNN 开发了一种优化给定误差模型的量子纠错方案,并发现其显著优于已知的可比较复杂度的量子码。最后,我们讨论了 QCNN 的潜在实验实现和拓展。
Oct, 2018
本研究提出了一种新的量子神经网络模型,使用实际存在的环境诱导的退相干的量子系统上的 (经典控制的) 单量子比特操作和测量,从而极大地降低了物理实现的难度。该模型在手写数字识别和其他非线性分类任务中具有优异的非线性分类能力和对噪声的鲁棒性。
May, 2023
介绍了 QuantumLeak,一种从基于云计算的 NISQ 机器中提取 QNN 模型的有效准确的技术,相比现有的经典模型窃取技术,QuantumLeak 在各种数据集和 VQC 架构上提高了 4.99%~7.35% 的本地 VQC 准确度。
Mar, 2024
我们提出一种基于费米模型的量子神经网络,其物理特性作为输出,并建立了与反向传播相媲美的高效优化,在具有挑战性的经典机器学习基准上具有竞争力的准确度,并且在量子系统上实现高精度且不需要预处理的机器学习,此外研究结果可用于量子纠缠分析和可解释的机器学习。
Nov, 2022
提出了一种基于变分混合量子 - 经典算法的量子编译方法 (QAQC),使用可训练的可逆门 $V$ 和目标可逆门 $U$ 的重叠作为编译代价,通过量子计算进行评估,其编译成果可以用于量子算法深度压缩、黑盒编译、噪音缓解和基准测验。
Jul, 2018