不变量和等变量的经典与量子图神经网络比较
将诱导偏差引入机器学习模型是机器学习研究的一个活动领域,特别是当机器学习模型被应用于关于物理世界的数据时。本文从相关的等变网络的文献中汲取灵感,通过使用真实世界的粒子物理重建任务作为评估测试平台,全面评价了等变图神经网络的提议的好处。我们证明了许多通常与等变网络相关联的理论优点在实际系统中可能不成立,并介绍了未来研究的有吸引力的方向,这将有利于机器学习的科学理论和物理应用。
Nov, 2023
本文提出了一个理论框架,可以比较图神经网络架构的表达能力,证明了实用 GNN 的第一近似保证,FGNN 被证明是最具表现力的架构之一,在 Quadratic Assignment Problem 中的应用表明 FGNN 能够比现有的基于谱、SDP 或其他 GNN 架构的算法表现得更好。
Jun, 2020
该研究通过对比分析了等变量量子神经网络(EQNN)和量子神经网络(QNN)与它们的经典对应物等变量神经网络(ENN)和深度神经网络(DNN)的性能,在模型复杂度和训练数据集的大小方面,通过两个玩具示例的二分类任务对每个网络的性能进行了评估。我们的结果表明,Z2×Z2 EQNN 和 QNN 在较小参数集和适度训练数据样本的情况下提供了更好的性能。
Nov, 2023
对使用数据集的对称性来约束神经网络的参数空间以提高其可训练性和泛化能力的几何深度学习方法在量子机器学习领域得到了应用,其中包括了等变量量子神经网络 (EQNNs)。本研究探讨了经典到量子嵌入对等变量量子卷积神经网络(EQCNNs)图像分类性能的影响,分析了数据嵌入方法与对称群表示的关联,以及不同表示对 EQCNN 表达能力的影响。我们数值比较了基于三种不同基佯波函数嵌入的 EQCNN 与非等变量量子卷积神经网络(QCNN)的分类准确性。结果显示,在训练迭代次数较少时,所有的 EQCNN 都比非等变量 QCNN 具有更高的分类准确性,而在迭代次数较多时,这种改进明显依赖于所使用的嵌入方法。预计本研究的结果对于几何量子机器学习中数据嵌入选择的重要性有着更好的了解,对学术界具有实用意义。
Dec, 2023
这项研究提出了与平面 $p4m$ 对称性相等的量子卷积神经网络(EquivQCNNs),用于图像分类,并在不同的用例中进行测试,证明了等变性促进了模型更好的泛化能力。
Oct, 2023
本文研究了一类具有单隐藏层的不变和等变网络,并证明了其新的普适性定理。首先,本文提出了一种以代数理论为基础的证明方式。其次,本文将这一结果扩展到等变网络中,该领域的理论研究相对较少。最后,本文的结果表明,相同的参数可以在具有不同规模的图上近似实现一定的函数。
May, 2019
图神经网络 (GNNs) 和欧几里德卷积神经网络 (CNNs) 的等变性对称性不同,本篇论文侧重于探讨 GNNs 的主动对称性,通过对信号在固定图上的支持进行学习,将近似对称性形式化为图粗化,提出了一个偏差 - 方差公式来量化损失表达性与学习估计的规则性之间的权衡,实验证明,选择比图自同构群大但小于全排列群的适当大的群可以达到最佳泛化性能。
Aug, 2023
本文介绍了一种新的模型来学习具有等变性的图神经网络,称为 EGNN,此方法不需要在中间层中计算昂贵的高阶表示,同时具有竞争力或更好的性能,在 3 维空间等变性上具有比现有方法更大的伸缩性,并在动态系统建模,图自编码器中的表征学习和预测分子性质方面证明了其有效性。
Feb, 2021
本研究提出了在量子计算机上实现图神经网络(GNNs)的框架,以应对处理大规模图时经典 GNNs 所面临的可扩展性挑战,通过制定与三种经典 GNNs 对应的量子算法:图卷积网络(Graph Convolutional Networks)、图注意力网络(Graph Attention Networks)和消息传递 GNNs(Message-Passing GNNs)。我们对简化的图卷积(SGC)网络的量子实现进行了复杂性分析,结果显示与经典方法相比,我们的量子 SGC 在时间和空间复杂度上具有潜在的优势,能够高效处理大规模图,这为在量子计算机上实现更先进的图神经网络模型铺平了道路,为用于分析图结构数据的量子机器学习开拓了新的可能性。
May, 2024