研究学习的李群生成器 (LieGG)
提出了一种能够从数据中发现非线性对称性的新颖生成模型 LaLiGAN,该模型可以将数据映射到特征空间,其中对称性变得线性,并同时在特征空间中发现对称性,理论上表明在某些条件下可以表达任何非线性对称性。实验结果显示,该方法可以捕捉到高维观测中的内在对称性,从而得到一个有用于其他下游任务的结构良好的特征空间。在各种动态系统的方程式发现和长期预测中展示了 LaLiGAN 的应用案例。
Sep, 2023
本文介绍了一种神经网络的架构 —— 线性群网络 (LGNs),其不需要提前规定对称性,在不需要监督或知道数据中隐藏的对称性的情况下,学习作用于神经网络权值空间上的线性群,并且可映射到机器学习中的已知操作。我们使用 LGNs 在多个数据集上学习群,并考虑不同的下游任务。结果表明,线性群结构取决于数据分布和所考虑的任务。
May, 2023
深度学习方法成功地用于推导保持重要物理量的对称变换。在这封信中,我们提出了一种用于检验和识别这种机器学习中发现的对称性的群论结构的方法。我们设计了损失函数,可以在对称性发现的深度学习阶段或后续的后处理阶段中探测子代数结构。我们通过 U (n) 李群家族的示例说明了这些新方法,得到了相应的子代数分解。作为粒子物理的应用,我们演示了在非阿贝尔规范对称性(如 SU (3) 和 SU (5))自发破缺后残余对称性的识别。
Sep, 2023
通过梯度下降,我们研究了学习等变神经网络的问题。尽管已知的问题对称(“等变性”)被纳入神经网络中,经验上改善了从生物学到计算机视觉等领域的学习流程的性能,但是一项有关学习理论的研究表明,在相关统计查询模型(CSQ)中,实际学习浅层全连接(即非对称)网络的复杂度呈指数级增长。在这项工作中,我们提出了一个问题:已知的问题对称是否足以减轻通过梯度下降学习等变神经网络的基本困难?我们的答案是否定的。特别地,我们给出了浅层图神经网络、卷积网络、不变多项式和排列子群的框架平均网络的下界,这些下界在相关输入维度中都以超多项式或指数级增长。因此,尽管通过对称性注入了显著的归纳偏差,但通过梯度下降实际学习等变神经网络所代表的完整函数类仍然是困难的。
Jan, 2024
使用李群和李代数的结构与几何学,提出了一个框架,用来在大多数情况下处理几何变换的不规则群,重点关注李群 GL+(n, R) 和 SL (n, R),以及它们作为仿射变换的表示。通过将 `较大的` 群分解为子群和子流形来实现不变积分和全局参数化。在这个框架下,我们展示了如何参数化卷积核来构建关于仿射变换等变的模型,并在标准的仿射不变基准分类任务上评估了我们模型的鲁棒性和越域泛化能力,结果表明我们的模型优于所有先前的等变模型以及所有胶囊网络提议。
Oct, 2023
本研究从概率对称性的角度考虑群不变性,建立功能性和概率对称性之间的联系,并得到了不变或等变于紧致群作用下的概率分布的生成功能表示。此表示完全表征了神经网络的结构,可用于模拟此类分布并提供了一般性的计算程序。
Jan, 2019
本文介绍了一种使用神经网络来识别数据集中对称性的方法,并利用嵌入层的结构来识别对称性是否存在以及在输入中对称性的轨道。通过分析输入中的不变轨道,确定所存在的连续或离散对称群,并使用图表述的方式对完全交空间卡拉比 - 雅莫夫流形进行分类,并发现该方法对于识别输入空间中的离散对称性至关重要。
Mar, 2020