量子神经网络的威力
我们提出一种基于费米模型的量子神经网络,其物理特性作为输出,并建立了与反向传播相媲美的高效优化,在具有挑战性的经典机器学习基准上具有竞争力的准确度,并且在量子系统上实现高精度且不需要预处理的机器学习,此外研究结果可用于量子纠缠分析和可解释的机器学习。
Nov, 2022
量子机器学习需要强大、灵活和高效可训练的模型来成功解决具有挑战性的问题。本文介绍了密度量子神经网络,一种融合了一组可训练酉矩阵的随机化学习模型。这些模型使用参数化量子电路广义化了量子神经网络,并允许在表达能力和高效可训练性之间进行折中,特别适用于量子硬件。我们通过将其应用于两个最近提出的模型族来展示该形式化方法的灵活性。第一个是具有有效可训练性但表达能力可能受限的交换块量子神经网络 (QNNs)。第二个是正交 (保持汉明权重) 量子神经网络,它在数据上提供了定义明确且可解释的转换,但在量子设备上进行大规模训练具有挑战性。密度交换块 QNNs 增加了容量,几乎没有梯度复杂度增加,而密度正交神经网络减少了梯度查询的复杂度,几乎没有性能损失。我们通过对具有超参数优化的合成平移不变数据和 MNIST 图像数据进行数值实验来支持我们的发现。最后,我们讨论了与后变分量量子神经网络、基于测量的量子机器学习和辍学机制之间的联系。
May, 2024
本文提出了一种基于带限傅里叶展开的量子感知器(QPs)转移函数的模型,用于设计可扩展的训练过程的量子神经网络(QNNs),并在其中添加了一种随机化的量子随机梯度下降技术,消除了样本复制的需要,并证明该训练过程期望收敛于真实最小值,这有助于提高数据效率和遵守禁止复制规则。
Mar, 2022
我们提出了一种真正的量子神经网络模型,其与传统的呈适应性中间层和节点的前馈神经网络具有相同的灵活性,并且具有较低的电路深度和所需的 C-NOT 门数量,从而优于现有的量子神经网络模型。通过对基准数据集进行测试,我们证明了我们的方法的优越性能,并且使用更少的量子资源要求,为将量子神经网络应用于实际相关的机器学习问题铺平了道路。
Feb, 2024
本文提出了一个理论框架,针对由替换编码电路块和可训练电路块组成的数据重新上传量子神经网络的表达能力进行研究,并证明了单量子比特量子神经网络可以通过将模型映射到部分傅里叶级数来逼近任何一元函数,并讨论了单量子比特本地 QNN 逼近多元函数的局限性。通过数值实验展示了单量子比特本地 QNN 的表达能力和局限性。
May, 2022
本文研究使用变分混合量子 - 经典方案构建的量子神经网络(QNN)的可学习性,我们得出了它对经验风险最小化的效用边界,证明了它可以作为一个差分私有模型来对待,并展示了使用 QNN 可以对某些任务进行运行加速的量子统计查询(QSQ)模型的有效模拟。
Jul, 2020
通过解析量子神经网络的存储容量 (C),研究其表达能力和参数化方式,我们发现,使用经典方式参数化的 QNN 与经典 NN 相比,在存储容量上没有优势;但使用量子状态参数化的 QNN 可以有指数级的存储容量,并提供了数值实验和理论结果。
Aug, 2019
研究利用机器学习技术开发量子计算算法的一种新思路,通过对比标准实值和复值经典神经网络与量子神经网络性能的实验表明,量子神经网络能够用更少的反向传播次数和更小的网络模型获得相媲美甚至更好的结果。
Jul, 2018
本研究提出了一种新的量子神经网络模型,使用实际存在的环境诱导的退相干的量子系统上的 (经典控制的) 单量子比特操作和测量,从而极大地降低了物理实现的难度。该模型在手写数字识别和其他非线性分类任务中具有优异的非线性分类能力和对噪声的鲁棒性。
May, 2023
研究了用于手写数字 MNIST 数据集分类问题的混合量子 - 经典神经网络的性能,结果表明虽然模拟时间较长,但是该模型优于传统网络,达到更好的收敛性和高的训练和测试精度。
Aug, 2021