文章讨论了神经网络在物理规律中对称性的应用,提出了基于张量和标量方法的普适逼近算法。
Jun, 2021
使用等变函数作为认知模型的假设条件下,学习具有对称性和等变性的函数是不可能的;我们探究了群和半群的逼近概念,分析了线性等变网络和群卷积网络是否满足该结果,并阐述了它们的理论和实际意义。
Oct, 2022
最近的神经网络展现出对电子基态波函数的精确逼近。在本研究中,我们探索了一种反转的方法,首先根据电子坐标计算反对称量,然后应用对称性等变的神经网络以保持反对称性。我们的实证结果表明,这种方法将简化为一个 Jastrow 因子,它是波函数中常用的置换不变的乘法因子。在本研究的评估中,我们得出了对于用于表示电子波函数的符号等变函数既没有理论优势也没有实证优势的结论。
Mar, 2024
本研究从概率对称性的角度考虑群不变性,建立功能性和概率对称性之间的联系,并得到了不变或等变于紧致群作用下的概率分布的生成功能表示。此表示完全表征了神经网络的结构,可用于模拟此类分布并提供了一般性的计算程序。
Jan, 2019
我们将神经网络的普适逼近定理推广到对于线性表示组不变或等变的映射,以建立一种像网络一样的计算模型,能够在能够逼近任何连续不变 / 等变映射的同时保持不变 / 等变。我们提出了完备的不变 / 等变网络的构造,通过引入中间多项式层,通过 Hilbert 和 Weyl 的定理证明了我们的构造方法。我们提出了适用于 SE(2)群的 “电荷守恒卷积” 模型,并证明其是连续 SE(2)等变信号变换的通用逼近器。
Apr, 2018
本文主要研究了定义在概率度量上的神经网络的学习和表示,通过研究不同正则化选择下的近似和泛化界限,建立了一个具有不同非线性学习程度的功能空间等级体系,从而解决了对称函数的泛化问题。
Aug, 2020
本文提出了一种基于 Fermionic 神经网络和排列等变结构的方法用于解决多电子 Schrödinger 方程,使用分块反对称构建代替 Slater 行列式以减小计算成本。该方法通过连续逼近器实现波函数的基态表示。
May, 2022
线性全连接神经网络所参数化的函数集合是一个行列式变种。我们研究了在置换群的作用下等变或不变的函数子变种。对于这些等变或不变的子变种,我们提供了其维数、度数以及欧氏距离度数和奇点的明确描述。我们对任意置换群完全表征了不变性和循环群的等变性。我们对等变和不变的线性网络的参数化和设计提出了结论,如权重共享特性,并证明所有不变的线性函数可以通过线性自编码器进行学习。
Sep, 2023
通过神经网络可以优化和验证多项式,同时保持高准确性,速度提高十倍,且多项式学习问题与非紧致群 SL (2,R) 等效,为非紧致对称问题提供了理论和实践上有趣的启示。
Dec, 2023
提出了用于机器学习对称矩阵上不变函数和对点云上不变函数的数学公式,并结合 DeepSets 在不同尺寸的对称矩阵和点云上学习函数的可行性。
May, 2024