用神经网络学习李群对称变换
提出一种方法来提取神经网络学习的对称性并评估网络对其的不变性程度。结果表明网络的对称性普遍存在于不同的结构中,但学习到的对称性质量取决于深度和参数数量。
Oct, 2022
本文介绍了一种使用神经网络来识别数据集中对称性的方法,并利用嵌入层的结构来识别对称性是否存在以及在输入中对称性的轨道。通过分析输入中的不变轨道,确定所存在的连续或离散对称群,并使用图表述的方式对完全交空间卡拉比 - 雅莫夫流形进行分类,并发现该方法对于识别输入空间中的离散对称性至关重要。
Mar, 2020
提出了一种能够从数据中发现非线性对称性的新颖生成模型 LaLiGAN,该模型可以将数据映射到特征空间,其中对称性变得线性,并同时在特征空间中发现对称性,理论上表明在某些条件下可以表达任何非线性对称性。实验结果显示,该方法可以捕捉到高维观测中的内在对称性,从而得到一个有用于其他下游任务的结构良好的特征空间。在各种动态系统的方程式发现和长期预测中展示了 LaLiGAN 的应用案例。
Sep, 2023
深度学习方法成功地用于推导保持重要物理量的对称变换。在这封信中,我们提出了一种用于检验和识别这种机器学习中发现的对称性的群论结构的方法。我们设计了损失函数,可以在对称性发现的深度学习阶段或后续的后处理阶段中探测子代数结构。我们通过 U (n) 李群家族的示例说明了这些新方法,得到了相应的子代数分解。作为粒子物理的应用,我们演示了在非阿贝尔规范对称性(如 SU (3) 和 SU (5))自发破缺后残余对称性的识别。
Sep, 2023
对称检测在各种机器学习任务中已经被证明可以提高性能。在连续对称性检测的背景下,现有的实验局限于对仿射变换的检测。根据流形假设,我们提出了一个用于发现超越仿射变换群的数据连续对称性的框架。我们还提供了一个类似的离散对称性的框架。我们通过实验将我们的方法与一种称为 LieGAN 的现有方法进行了比较,结果表明我们的方法在大样本量下能够有效检测仿射对称性,并且在小样本量下优于 LieGAN。我们还展示了我们的方法能够检测超越仿射群的连续对称性,并且通常比 LieGAN 更高效。
Jun, 2024
使用李群和李代数的结构与几何学,提出了一个框架,用来在大多数情况下处理几何变换的不规则群,重点关注李群 GL+(n, R) 和 SL (n, R),以及它们作为仿射变换的表示。通过将 `较大的` 群分解为子群和子流形来实现不变积分和全局参数化。在这个框架下,我们展示了如何参数化卷积核来构建关于仿射变换等变的模型,并在标准的仿射不变基准分类任务上评估了我们模型的鲁棒性和越域泛化能力,结果表明我们的模型优于所有先前的等变模型以及所有胶囊网络提议。
Oct, 2023
本文介绍了一种神经网络的架构 —— 线性群网络 (LGNs),其不需要提前规定对称性,在不需要监督或知道数据中隐藏的对称性的情况下,学习作用于神经网络权值空间上的线性群,并且可映射到机器学习中的已知操作。我们使用 LGNs 在多个数据集上学习群,并考虑不同的下游任务。结果表明,线性群结构取决于数据分布和所考虑的任务。
May, 2023
本文介绍了两种改进的算法,以显著加快发现连续对称变换和对称生成器的过程,并以 U(n)和例外李群 G2,F4 和 E6 为例,找到了完整的生成器集。同时,我们还引入第三种后处理算法,以将找到的生成器呈现为稀疏形式。我们对新算法的性能提升进行了基准测试,并证明了这种机器学习方法在发现对称性方面的普适性,可应用于各种标记数据集。
Jul, 2023
本研究通过神经变换来学习哈密顿机械系统的对称性,需要新的网络体系结构来参数化辛变换,以维持哈密顿结构,并学习了可积模型的结构,这是神经变换适应一个受限于反演之外的家庭的典型示例。
Jun, 2019