- 具有辛保持特性的深度神经网络
我们提出了一种深度神经网络架构,其输出形成了输入的可逆辛变换。利用这种神经网络类型,可以在未知哈密顿系统上进行学习任务,而不破坏相空间的固有辛结构。
- 使用再生核希尔伯特空间和随机特征学习哈密顿动力学
从有限且有噪声的数据集中学习哈密尔顿动力学的一种方法,该方法在本质上哈密尔顿向量场的再生核希尔伯特空间(RKHS)中学习哈密尔顿向量场,尤其是奇哈密尔顿向量场。使用辛对称核来实现奇对称性,以及如何将核修改为奇辛核。提出了一种随机特征近似方法 - 使用再生核希尔伯特空间学习哈密顿动力学
本论文提出了一种学习哈密顿动力学的方法,能够从有限的数据点中学习哈密顿向量场,使用具有哈密顿性质的向量场在重构核希尔伯特空间上进行正则优化,并要求向量场为奇数或偶数。通过使用辛核函数,论文展示了如何修改这个辛核函数为奇数或偶数,并通过模拟验 - 下一步是什么?从离散观测中预测哈密尔顿动力学
从离散观测到的向量场出发,我们提出了几种预测 Hamiltonian 系统动力学的方法。每种方法要么知道系统的 Hamiltonian 属性,要么不知道。我们通过实证和比较评估这些方法,观察到了系统是 Hamiltonian 时可以有效地提 - 哈密顿系统的对称保持:仿真与学习
通过建立 $G$- 不变的拉格朗日子流形,本文提出了一种通用的几何框架,用于模拟和学习在李群对称性下不变的哈密顿系统的动力学,以此获得比非对称感知方法更真实的原始动力学替代品和更准确的未观测轨迹预测器。
- Lie-Poisson 神经网络 (LPNet): 基于数据的具有对称性的哈密顿系统计算
基于数据的哈密顿系统长期演化精确预测需要一个在每个时间步骤下保留适当结构的网络。本文介绍了两种确切保留李 - 泊松系统的 Poisson 括号和特殊函数(卡西米尔)到机器精度的转换,一种是使用密集神经网络计算转换参数的 LPNets,另一种 - 使用数据驱动的二次流形简化哈密顿系统的辛模型约简
本文介绍了两种基于二次流形的数据驱动方法,用于对高维哈密尔顿系统进行辛模型降维。这些方法相比于线性的辛子空间模型具有更高的精度,并能为超出其训练数据范围的场景提供精确的结果预测。
- 正则和非正则哈密顿算符推理
本文提出了一种非侵入性和结构保持的模型简化方法,基于算子推断的思想,利用系统哈密顿量的灰盒知识和快照数据进行直接线性求解,适用于经典和非经典哈密顿系统的简化,并在多个基于双曲型偏微分方程的实例中验证了该方法提供的准确、稳定的模型简化结果能在 - ICML基于数据的一般哈密顿动力学预测 —— 学习精确辛映射
使用生成函数的神经网络逼近演化映射,以实现非线性时间序列的学习和预测。
- ICLR不可分离的辛神经网络
提出了一种新的神经网络架构 Nonseparable Symplectic Neural Networks (NSSNNs),可以从有限的观察数据中发现并嵌入非可分离 Hamiltonian 系统的辛结构,从而预测分离和非分离 Hamilt - ICML将卷积神经网络推广至任意连续数据上的李群等变
该论文提出一种构建卷积层、使其对任何指定李群的变换具有等变性的通用方法,并展示了该方法在图像、分子数据和 Hamiltonian 系统等领域的应用。该方法特别适用于 Hamiltonian 系统,可以保持线性和角动量的精确守恒。
- SympNets:内在结构保持的辛网络用于辨识哈密顿系统
提出了新的辛网络(SympNets)来识别基于线性,激活和梯度模块组合的数据的哈密顿系统。实验结果表明,SymNets 具有很好的泛化能力,并且比基线模型更快。
- 用辛流进行神经正则变换
使用辛神经网络构建灵活、强大的 Langevin 方程式的变换重现器, 并使用两种方法进行训练
- 从数据中学习哈密顿系统
本文提出一种全数据驱动的方法,利用自编码神经网络组件估计哈密顿系统的相空间,通过另一个神经网络组件来逼近其哈密顿函数并在两个组件之间进行联合训练,提取了摆锤的相空间和生成哈密顿函数。
- 从轨迹数据中重建未知哈密顿系统的结构保持方法
本研究提出了一种结构 - 保持的数值方法,用于逼近未知的哈密顿系统,通过直接逼近未知的哈密顿函数而非方程右端来实现守恒定律,同时也提出了处理噪声数据的实用去噪程序。
- 基于母函数的带电粒子动力学显式辛算法
本研究通过生成函数方法结合分裂方法构建了二阶和三阶的显式辛算法,在电荷粒子动力学的模拟中表现出了保守性和效率方面的优越性。
- 在古典 Henon-Heiles Hamiltonian 系统中分类轨道
通过计算混沌动力学指标和谱动力学方法,研究了 Hamiltonian 系统的能量对轨道种类的影响,发现随着能量的增加,不同的谐振家族会分裂成次级的,小于 1:1 的谐振次级,产生混沌运动。