存在噪声下的几何量子机器学习中的对称性破缺
这项研究提出了与平面 $p4m$ 对称性相等的量子卷积神经网络(EquivQCNNs),用于图像分类,并在不同的用例中进行测试,证明了等变性促进了模型更好的泛化能力。
Oct, 2023
对使用数据集的对称性来约束神经网络的参数空间以提高其可训练性和泛化能力的几何深度学习方法在量子机器学习领域得到了应用,其中包括了等变量量子神经网络 (EQNNs)。本研究探讨了经典到量子嵌入对等变量量子卷积神经网络(EQCNNs)图像分类性能的影响,分析了数据嵌入方法与对称群表示的关联,以及不同表示对 EQCNN 表达能力的影响。我们数值比较了基于三种不同基佯波函数嵌入的 EQCNN 与非等变量量子卷积神经网络(QCNN)的分类准确性。结果显示,在训练迭代次数较少时,所有的 EQCNN 都比非等变量 QCNN 具有更高的分类准确性,而在迭代次数较多时,这种改进明显依赖于所使用的嵌入方法。预计本研究的结果对于几何量子机器学习中数据嵌入选择的重要性有着更好的了解,对学术界具有实用意义。
Dec, 2023
对称性在深度学习中作为归纳偏置已经被证明是一种高效的模型设计方法。然而,在神经网络中对称性与等变性的关系并不总是显而易见。本研究分析了等变函数中出现的一个关键限制:它们无法针对单个数据样本进行对称性打破。为此,我们引入了一种新的 “放松等变性” 的概念来规避这一限制。我们进一步展示了如何将这种放松应用于等变多层感知机(E-MLPs),从而提供了一种与注入噪声方法相对的选择。随后,讨论了对称性打破在物理学、图表示学习、组合优化和等变解码等各个应用领域的相关性。
Dec, 2023
本文研究使用变分混合量子 - 经典方案构建的量子神经网络(QNN)的可学习性,我们得出了它对经验风险最小化的效用边界,证明了它可以作为一个差分私有模型来对待,并展示了使用 QNN 可以对某些任务进行运行加速的量子统计查询(QSQ)模型的有效模拟。
Jul, 2020
该研究通过对比分析了等变量量子神经网络(EQNN)和量子神经网络(QNN)与它们的经典对应物等变量神经网络(ENN)和深度神经网络(DNN)的性能,在模型复杂度和训练数据集的大小方面,通过两个玩具示例的二分类任务对每个网络的性能进行了评估。我们的结果表明,Z2×Z2 EQNN 和 QNN 在较小参数集和适度训练数据样本的情况下提供了更好的性能。
Nov, 2023
通过梯度下降,我们研究了学习等变神经网络的问题。尽管已知的问题对称(“等变性”)被纳入神经网络中,经验上改善了从生物学到计算机视觉等领域的学习流程的性能,但是一项有关学习理论的研究表明,在相关统计查询模型(CSQ)中,实际学习浅层全连接(即非对称)网络的复杂度呈指数级增长。在这项工作中,我们提出了一个问题:已知的问题对称是否足以减轻通过梯度下降学习等变神经网络的基本困难?我们的答案是否定的。特别地,我们给出了浅层图神经网络、卷积网络、不变多项式和排列子群的框架平均网络的下界,这些下界在相关输入维度中都以超多项式或指数级增长。因此,尽管通过对称性注入了显著的归纳偏差,但通过梯度下降实际学习等变神经网络所代表的完整函数类仍然是困难的。
Jan, 2024
运用机器学习技术设计了量子神经网络,该网络明确地结合了大量具有物理相关性的对称性,以预测原子势能和原子力的潜在能量表面。研究结果表明,凭借几何量子机器学习框架,分子力场的生成可以从中获益,并且化学系统对于发展和应用先进量子机器学习工具具有丰富的应用潜力。
Nov, 2023