群等变神经网络的理论方面
介绍了一种新型卷积神经网络,称为Group equivariant Convolutional Neural Networks (G-CNNs),它通过利用对称性降低样本复杂度,使用新型层G-convolutions,增加网络的表达能力,且易于使用和实现。 G-CNNs在CIFAR10和旋转的MNIST上实现了最先进的结果。
Feb, 2016
本文首先说明深度学习中卷积神经网络在图像识别方面的成功,然后介绍了将此框架推广到其他领域的尝试,并给出了使用表示论和非交换调和分析概念的卷积和等变性的理论证明,证明了卷积结构不仅是充分而且也是必要的对于紧致群作用的等变性的条件,并推导了新的广义卷积公式。
Feb, 2018
本研究提出了关于群等变卷积神经网络(G-CNNs)在同种空间如欧几里德空间和球面上的总体理论。这些网络中的特征映射表示同种基本空间上的场,层是场空间之间的等变映射。该理论使得所有现有的G-CNNs都能按照它们的对称群、基础空间和场类型进行系统分类。我们还考虑了一个根本性问题:什么是给定类型的特征空间(场)之间等变线性映射的最普遍类型?我们证明这样的映射与使用等变核进行卷积一一对应,并且表征了这些核的空间。
Nov, 2018
该研究描述了在可旋转卷积神经网络框架中的$E(2)$-等变卷积,提出了转换特性表示描述特征空间变换法则的群表示。研究人员证明了这些约束可以通过使用不可约表示约简为任意群表示的约束,并通过实现一系列先前提出的和全新的等变网络架构进行了广泛比较,表明当用作非等变卷积的替代品时,在CIFAR-10、CIFAR-100和STL-10上使用$E(2)$-可旋转卷积可以取得显著的改进。
Nov, 2019
使用等变函数作为认知模型的假设条件下,学习具有对称性和等变性的函数是不可能的;我们探究了群和半群的逼近概念,分析了线性等变网络和群卷积网络是否满足该结果,并阐述了它们的理论和实际意义。
Oct, 2022
本研究论文探讨卷积神经网络在对称群中的应用,提出了群等变神经网络的概念和架构,以及使用多种层和滤波器的方法,为对称群的表示和胶囊的细节做出了数学分析。
Jan, 2023
本研究探讨网络等变性是否意味着所有层都具有等变性。论文在理论和实验方面发现,CNN是具有层间等变性的,这一发现支持最近Entezari及其合作者提出的置换猜想的一个弱化版本
May, 2023
使用李群和李代数的结构与几何学,提出了一个框架,用来在大多数情况下处理几何变换的不规则群,重点关注李群 GL+(n, R) 和 SL(n, R),以及它们作为仿射变换的表示。通过将`较大的`群分解为子群和子流形来实现不变积分和全局参数化。在这个框架下,我们展示了如何参数化卷积核来构建关于仿射变换等变的模型,并在标准的仿射不变基准分类任务上评估了我们模型的鲁棒性和越域泛化能力,结果表明我们的模型优于所有先前的等变模型以及所有胶囊网络提议。
Oct, 2023
本研究解决了传统欧几里得深度学习无法有效处理复杂拓扑特征空间的问题,提出了基于对称群等变深度学习模型的新方法。这些模型在图形、三维形状和非欧几里得空间上实现了类似卷积的操作,揭示了其输入空间和表示之间的内在对称性,具有重要的理论和实践意义。
Sep, 2024