神经网络学习对称函数的功能视角
本研究从概率对称性的角度考虑群不变性,建立功能性和概率对称性之间的联系,并得到了不变或等变于紧致群作用下的概率分布的生成功能表示。此表示完全表征了神经网络的结构,可用于模拟此类分布并提供了一般性的计算程序。
Jan, 2019
研究了前馈 ReLU 神经网络架构的参数空间,证明了对于没有窄于输入层的任何网络架构,都存在没有隐藏对称性的参数设置,并通过实验近似计算了不同网络架构在初始化时的功能维度。
Jun, 2023
通过梯度下降,我们研究了学习等变神经网络的问题。尽管已知的问题对称(“等变性”)被纳入神经网络中,经验上改善了从生物学到计算机视觉等领域的学习流程的性能,但是一项有关学习理论的研究表明,在相关统计查询模型(CSQ)中,实际学习浅层全连接(即非对称)网络的复杂度呈指数级增长。在这项工作中,我们提出了一个问题:已知的问题对称是否足以减轻通过梯度下降学习等变神经网络的基本困难?我们的答案是否定的。特别地,我们给出了浅层图神经网络、卷积网络、不变多项式和排列子群的框架平均网络的下界,这些下界在相关输入维度中都以超多项式或指数级增长。因此,尽管通过对称性注入了显著的归纳偏差,但通过梯度下降实际学习等变神经网络所代表的完整函数类仍然是困难的。
Jan, 2024
本篇论文研究了用于处理其他神经网络的权重或梯度的神经网络的设计,即神经功能网络(NFN),并通过对称性的引入提出了一个构建置换等变的神经谷波器的框架,其架构将这些对称性编码为归纳偏置,并发现该框架在处理加权多层和卷积神经网络等多个任务方面表现出很好的效果,如分类器推广和权重编辑等
Feb, 2023
通过使用神经网络来近似再生核希尔伯特空间中的泛函的普适性,以及将其应用于广义函数线性模型的函数回归,本研究探讨了将功能性数据(如时间序列和图像)整合到神经网络中学习函数空间到 R 的映射(即泛函)的方法。同时,通过在再生核希尔伯特空间中建立内插正交投影,提出的网络简化了现有的功能学习工作,使用点评估替代基函数展开。
Mar, 2024
传统机器学习算法通常基于假设输入数据以向量形式存在,重点关注以向量为中心的范式。然而,随着需要处理基于集合输入的任务的增长,研究界面对这些挑战的关注已发生了范式转变。近年来,像 Deep Sets 和 Transformers 这样的神经网络架构的出现,为处理基于集合的数据提供了重大进展。这些架构专门设计用于自然地处理集合作为输入,从而更有效地表示和处理集合结构。因此,出现了大量致力于探索和利用这些架构在近似集合函数方面的能力的研究努力。这篇综述旨在概述有关近似集合函数的神经网络的多样化问题设置和正在进行的研究工作。通过深入研究这些方法的复杂性并阐明相关挑战,这篇综述旨在使读者全面了解该领域。通过这个全面的视角,我们希望研究人员可以获得关于基于集合神经网络的潜在应用、固有限制和未来发展方向的有价值的见解。事实上,通过这篇综述,我们得出两个观察结果:i) Deep Sets 及其变种可以通过聚合函数的差异进行泛化;ii) Deep Sets 的行为对聚合函数的选择敏感。通过这些观察结果,我们展示了 Deep Sets 这一众所周知的具有置换不变性的神经网络可以在拟合类算术平均意义上进行泛化。
Mar, 2024
本研究提出了一种自动构建任何权重空间的置换等变模型的算法,称为通用神经功能(UNF),在现有学习优化器设计中替代并对小型图片分类器和语言模型的优化效果显示出有希望的改进,结果表明学习优化器能够通过考虑其优化的权重空间结构获益。
Feb, 2024
我们以平均场(Mean-Field)视角分析参数过多的人工神经网络在对称数据条件下的学习动态,探讨了采用随机梯度下降和可能的对称性增强技术(如数据增广、特征平均或等变体系结构)训练的广义浅层网络的学习动态,研究结果发现在对称数据的情况下,数据增广、特征平均和自由训练的模型在平均场动态下具有相同的行为。
May, 2024