参数共享实现等变性
这篇研究论文介绍了一种从数据学习平移对称性、提高深度学习在图像处理任务中的性能的方法,而非人为设计具有相应等变性质的架构,其通过学习相应的参数共享模式来实现对等变性的学习及编码,并且结果显示其成功替代了传统手动构建深度学习架构的方法。
Jul, 2020
本文研究了有限群 $G$ 的 $G$- 不变 / 等变函数与深度神经网络之间的关系,特别是对于给定的 $G$- 不变 / 等变函数,我们通过深度神经网络构建其通用逼近器,其中每层都具有 $G$- 作用,每个仿射变换都是 $G$- 等变 / 不变。由于表示论,我们可以证明这种逼近器具有比通常模型少得多的自由参数。
Mar, 2019
线性全连接神经网络所参数化的函数集合是一个行列式变种。我们研究了在置换群的作用下等变或不变的函数子变种。对于这些等变或不变的子变种,我们提供了其维数、度数以及欧氏距离度数和奇点的明确描述。我们对任意置换群完全表征了不变性和循环群的等变性。我们对等变和不变的线性网络的参数化和设计提出了结论,如权重共享特性,并证明所有不变的线性函数可以通过线性自编码器进行学习。
Sep, 2023
本研究从概率对称性的角度考虑群不变性,建立功能性和概率对称性之间的联系,并得到了不变或等变于紧致群作用下的概率分布的生成功能表示。此表示完全表征了神经网络的结构,可用于模拟此类分布并提供了一般性的计算程序。
Jan, 2019
通过梯度下降,我们研究了学习等变神经网络的问题。尽管已知的问题对称(“等变性”)被纳入神经网络中,经验上改善了从生物学到计算机视觉等领域的学习流程的性能,但是一项有关学习理论的研究表明,在相关统计查询模型(CSQ)中,实际学习浅层全连接(即非对称)网络的复杂度呈指数级增长。在这项工作中,我们提出了一个问题:已知的问题对称是否足以减轻通过梯度下降学习等变神经网络的基本困难?我们的答案是否定的。特别地,我们给出了浅层图神经网络、卷积网络、不变多项式和排列子群的框架平均网络的下界,这些下界在相关输入维度中都以超多项式或指数级增长。因此,尽管通过对称性注入了显著的归纳偏差,但通过梯度下降实际学习等变神经网络所代表的完整函数类仍然是困难的。
Jan, 2024
卷积将等变对称性编码到神经网络中,从而提高泛化性能。为了允许灵活的对称约束,我们改进了软等变性的参数化,并通过优化边缘似然来学习层面的等变性。我们展示了在图像分类任务上自动学习层面等变性的能力,获得了与硬编码对称性基线相当或更好的性能。
Oct, 2023
通过研究对称性和几何学,我们提出了一种系统规则,通过数据域上的群作用来找到参数域上的双重群作用,并通过 Schur 引理给出了广义神经网络的群理论证明,从而将几何深度学习与抽象谐波分析相连。
Oct, 2023
我们研究了群等变卷积神经网络如何使用子采样来打破对其对称性的等变性,并探讨了对网络性能的影响。我们发现,即使输入维度只有一个像素的微小变化,常用的架构也会变得近似等变,而不是完全等变。当训练数据中的对称性与网络的对称性不完全相同时,近似等变网络能够放松其等变性约束,并在常见的基准数据集上与或胜过完全等变网络。
Aug, 2023
本文介绍一种使用群等变卷积神经网络来解决逆问题的学习重建方法,通过在迭代方法中建立群等变卷积神经网络解决拉伸同变的问题,实现了低剂量计算机断层成像重建和子采样磁共振成像重建的质量提升。
Feb, 2021