数据参数域上的联合群不变函数引导通用神经网络
本文研究了有限群 $G$ 的 $G$- 不变 / 等变函数与深度神经网络之间的关系,特别是对于给定的 $G$- 不变 / 等变函数,我们通过深度神经网络构建其通用逼近器,其中每层都具有 $G$- 作用,每个仿射变换都是 $G$- 等变 / 不变。由于表示论,我们可以证明这种逼近器具有比通常模型少得多的自由参数。
Mar, 2019
本研究探讨了群变换对神经网络中的线性层进行限制是否可以使其逼近任意(连续)不变函数,结果表明高阶张量可以实现该功能,且存在一些群需要高阶张量才能实现,研究得出了只使用一阶张量的 G 不变网络普适性的必要条件。
Jan, 2019
本研究从概率对称性的角度考虑群不变性,建立功能性和概率对称性之间的联系,并得到了不变或等变于紧致群作用下的概率分布的生成功能表示。此表示完全表征了神经网络的结构,可用于模拟此类分布并提供了一般性的计算程序。
Jan, 2019
线性全连接神经网络所参数化的函数集合是一个行列式变种。我们研究了在置换群的作用下等变或不变的函数子变种。对于这些等变或不变的子变种,我们提供了其维数、度数以及欧氏距离度数和奇点的明确描述。我们对任意置换群完全表征了不变性和循环群的等变性。我们对等变和不变的线性网络的参数化和设计提出了结论,如权重共享特性,并证明所有不变的线性函数可以通过线性自编码器进行学习。
Sep, 2023
我们在这项工作中正式证明,在特定条件下,如果神经网络对于一个有限群是不变的,那么它的权重将恢复该群的傅里叶变换。这为傅里叶特征的出现提供了数学解释,傅里叶特征是生物和人工学习系统中普遍存在的现象。即使对于非交换群,这些结果仍然成立,此时傅里叶变换编码了所有不可约幺正群表示。我们的研究结果对于对称性探索问题具有重要意义。具体来说,我们证明了从至少在某些限制范围内是近似不变的网络的权重中,可以恢复未知群的代数结构。总体而言,这项工作为不变神经网络表示的代数学习理论奠定了基础。
Dec, 2023
基于群表示论,我们提出了一个统一的构造性通用逼近定理,涵盖了包括浅层和深层神经网络在内的广泛学习机。我们通过研究向量值联合群等变特征映射的方法,扩展了 Sonoda 等人最近发展的系统方法,从而对复合非线性激活函数定义的真实深层网络进行了形式化的通用逼近定理的证明。
May, 2024
我们将神经网络的普适逼近定理推广到对于线性表示组不变或等变的映射,以建立一种像网络一样的计算模型,能够在能够逼近任何连续不变 / 等变映射的同时保持不变 / 等变。我们提出了完备的不变 / 等变网络的构造,通过引入中间多项式层,通过 Hilbert 和 Weyl 的定理证明了我们的构造方法。我们提出了适用于 SE(2)群的 “电荷守恒卷积” 模型,并证明其是连续 SE(2)等变信号变换的通用逼近器。
Apr, 2018
本文主要研究了定义在概率度量上的神经网络的学习和表示,通过研究不同正则化选择下的近似和泛化界限,建立了一个具有不同非线性学习程度的功能空间等级体系,从而解决了对称函数的泛化问题。
Aug, 2020
本研究探讨连续域卷积神经网络中的仿射不变性,并引入一种新准则评估仿射变换下两个输入信号的相似性。通过分析抬升信号的卷积并计算相应的广义线性群 $G_2$ 上的积分,与解决复杂优化问题的传统方法不同,本研究为实际深度学习流程处理几何变换的范围提供了扩展。
Nov, 2023