量子神经网络的容量
本文提出了一个理论框架,针对由替换编码电路块和可训练电路块组成的数据重新上传量子神经网络的表达能力进行研究,并证明了单量子比特量子神经网络可以通过将模型映射到部分傅里叶级数来逼近任何一元函数,并讨论了单量子比特本地 QNN 逼近多元函数的局限性。通过数值实验展示了单量子比特本地 QNN 的表达能力和局限性。
May, 2022
本文提出了一种基于带限傅里叶展开的量子感知器(QPs)转移函数的模型,用于设计可扩展的训练过程的量子神经网络(QNNs),并在其中添加了一种随机化的量子随机梯度下降技术,消除了样本复制的需要,并证明该训练过程期望收敛于真实最小值,这有助于提高数据效率和遵守禁止复制规则。
Mar, 2022
本文开发了一个不可能定理,证明了使用量子神经网络(QNNs)从高保真度的初始状态开始,学习未知量子态的概率随比特数指数级下降,而与电路深度多项式增长,从而对改善 QNNs 的可学习性和可扩展性的好的初始猜测和自适应方法提出了普遍限制,并深化了先验信息在 QNNs 中的作用的理解。
Sep, 2023
本文使用信息几何工具,定义了量子和经典神经网络的表达能力,将有效维度作为证明表达能力的新广义边界,并建立了一个强大的表达能力度量。我们展示了量子神经网络能够比相似的经典神经网络实现更好的有效维度,并因其更均匀分布的 Fisher 信息谱而显示了对枯燥的高原问题具有适应性并具有快速的训练能力。我们的工作是第一个通过更高的有效维度和更快的训练能力证明精心设计的量子神经网络优于经典神经网络的,并在实际量子硬件上进行了验证。
Oct, 2020
本文提出了一种系统方法,对量子神经网络的研究进行了综述和总结,旨在将量子计算与神经计算的突出特性相结合,但是目前为止并没有一个潜在的 QNN 模型能够完全利用量子物理和计算在神经网络中的优势,未来的发展方向可能是基于耗散量子计算的开放量子神经网络。
Aug, 2014
本文研究使用变分混合量子 - 经典方案构建的量子神经网络(QNN)的可学习性,我们得出了它对经验风险最小化的效用边界,证明了它可以作为一个差分私有模型来对待,并展示了使用 QNN 可以对某些任务进行运行加速的量子统计查询(QSQ)模型的有效模拟。
Jul, 2020
我们介绍了一个可以通过监督学习表示带有标签的数据(经典或量子)并进行训练的量子神经网络。该网络由一系列参数相关的酉变换组成,作用于输入的量子态,可以进行二元分类。我们展示了如何对经典数据集进行分类,并使用实际数据集的例子展示了该网络的应用。
Feb, 2018
我们提出了一种真正的量子神经网络模型,其与传统的呈适应性中间层和节点的前馈神经网络具有相同的灵活性,并且具有较低的电路深度和所需的 C-NOT 门数量,从而优于现有的量子神经网络模型。通过对基准数据集进行测试,我们证明了我们的方法的优越性能,并且使用更少的量子资源要求,为将量子神经网络应用于实际相关的机器学习问题铺平了道路。
Feb, 2024
本研究探讨了一种可扩展的量子神经网络(SQNN)方法,通过利用多个小型量子设备的量子资源来提高分类精度和训练效率。 对 MNIST 数据集进行的评估表明,相比于相同规模的常规 QNN 模型, SQNN 模型可以实现具有可比较的分类精度,并且超过一定量子资源的 SQNN 模型可以显著提高分类精度。
Aug, 2022
量子机器学习需要强大、灵活和高效可训练的模型来成功解决具有挑战性的问题。本文介绍了密度量子神经网络,一种融合了一组可训练酉矩阵的随机化学习模型。这些模型使用参数化量子电路广义化了量子神经网络,并允许在表达能力和高效可训练性之间进行折中,特别适用于量子硬件。我们通过将其应用于两个最近提出的模型族来展示该形式化方法的灵活性。第一个是具有有效可训练性但表达能力可能受限的交换块量子神经网络 (QNNs)。第二个是正交 (保持汉明权重) 量子神经网络,它在数据上提供了定义明确且可解释的转换,但在量子设备上进行大规模训练具有挑战性。密度交换块 QNNs 增加了容量,几乎没有梯度复杂度增加,而密度正交神经网络减少了梯度查询的复杂度,几乎没有性能损失。我们通过对具有超参数优化的合成平移不变数据和 MNIST 图像数据进行数值实验来支持我们的发现。最后,我们讨论了与后变分量量子神经网络、基于测量的量子机器学习和辍学机制之间的联系。
May, 2024