通过不变映射分解等变映射:对称下的通用逼近应用
本研究提出了关于群等变卷积神经网络(G-CNNs)在同种空间如欧几里德空间和球面上的总体理论。这些网络中的特征映射表示同种基本空间上的场,层是场空间之间的等变映射。该理论使得所有现有的G-CNNs都能按照它们的对称群、基础空间和场类型进行系统分类。我们还考虑了一个根本性问题:什么是给定类型的特征空间(场)之间等变线性映射的最普遍类型?我们证明这样的映射与使用等变核进行卷积一一对应,并且表征了这些核的空间。
Nov, 2018
本文研究了有限群$G$的$G$-不变/等变函数与深度神经网络之间的关系,特别是对于给定的$G$-不变/等变函数,我们通过深度神经网络构建其通用逼近器,其中每层都具有$G$-作用,每个仿射变换都是$G$-等变/不变。由于表示论,我们可以证明这种逼近器具有比通常模型少得多的自由参数。
Mar, 2019
本文研究了一类具有单隐藏层的不变和等变网络,并证明了其新的普适性定理。首先,本文提出了一种以代数理论为基础的证明方式。其次,本文将这一结果扩展到等变网络中,该领域的理论研究相对较少。最后,本文的结果表明,相同的参数可以在具有不同规模的图上近似实现一定的函数。
May, 2019
本文针对深度学习的无监督学习,将群不变和群等变表示学习扩展到了该领域。我们提出了一种基于编码器-解码器框架的通用学习策略,其中潜在表示被分为不变项和等变群作用项。在利用预测适当的群作用来对齐输入和输出姿势以解决重建任务时,网络可以学习将数据编码和解码为群不变表示。我们导出依变编码器的必要条件,并针对旋转,平移和置换明确描述了我们的构造。我们在不同网络架构下使用不同数据类型进行各种实验,测试了我们方法的有效性和鲁棒性。
Feb, 2022
使用等变函数作为认知模型的假设条件下,学习具有对称性和等变性的函数是不可能的;我们探究了群和半群的逼近概念,分析了线性等变网络和群卷积网络是否满足该结果,并阐述了它们的理论和实际意义。
Oct, 2022
本研究探讨网络等变性是否意味着所有层都具有等变性。论文在理论和实验方面发现,CNN是具有层间等变性的,这一发现支持最近Entezari及其合作者提出的置换猜想的一个弱化版本
May, 2023
线性全连接神经网络所参数化的函数集合是一个行列式变种。我们研究了在置换群的作用下等变或不变的函数子变种。对于这些等变或不变的子变种,我们提供了其维数、度数以及欧氏距离度数和奇点的明确描述。我们对任意置换群完全表征了不变性和循环群的等变性。我们对等变和不变的线性网络的参数化和设计提出了结论,如权重共享特性,并证明所有不变的线性函数可以通过线性自编码器进行学习。
Sep, 2023
使用李群和李代数的结构与几何学,提出了一个框架,用来在大多数情况下处理几何变换的不规则群,重点关注李群 GL+(n, R) 和 SL(n, R),以及它们作为仿射变换的表示。通过将`较大的`群分解为子群和子流形来实现不变积分和全局参数化。在这个框架下,我们展示了如何参数化卷积核来构建关于仿射变换等变的模型,并在标准的仿射不变基准分类任务上评估了我们模型的鲁棒性和越域泛化能力,结果表明我们的模型优于所有先前的等变模型以及所有胶囊网络提议。
Oct, 2023
等变神经网络在对称域上显示出了改进的性能、表现力和样本复杂度,但对于某些特定的对称性、表示和坐标选择,常见的逐点激活(如ReLU)不能实现等变性,则无法用于等变神经网络的设计。本文中我们提出的定理描述了所有可能的有限维表示、坐标选择和逐点激活的组合,以获得完全等变的层,这样可以广义地推广和加强现有的特征。值得注意的是,实际相关的特殊情况被作为必要的推论进行了讨论。事实上,我们证明旋转等变网络只能是不变的,因为对于任何与连通紧致群等变的网络来说都是如此。然后,我们讨论了当应用于恰好等变网络的重要实例时,我们的研究结果的影响。首先,我们对诸如具有逐点非线性和几何对应物的不变图网络之类的置换等变网络进行了完全表征,突出了一大批具有尚不清楚的表现能力和性能的模型。其次,我们表明了解离可操作卷积神经网络的特征空间是平凡表示。
Jan, 2024
基于群表示论,我们提出了一个统一的构造性通用逼近定理,涵盖了包括浅层和深层神经网络在内的广泛学习机。我们通过研究向量值联合群等变特征映射的方法,扩展了Sonoda等人最近发展的系统方法,从而对复合非线性激活函数定义的真实深层网络进行了形式化的通用逼近定理的证明。
May, 2024