固定积分神经网络
神经网络在计算高振荡一维函数的积分方面具有高效的 FLOP 效率,在相同的计算预算或浮点操作数量下,神经网络比传统的求积方法更好地计算了这些振荡积分。我们的结果来自于神经网络学习了传统数值积分器无法发现的振荡积分中的潜在模式。
Apr, 2024
本文介绍了一种基于 Stein 运算符的神经网络架构和 Laplace 近似的贝叶斯斯坦网络方法,以实现数值积分中的贝叶斯概率数值方法,相较于高成本的高斯过程模型,该方法在流体力学中的应用中表现了数倍的性能提高。
May, 2023
本文介绍了一种名为有限体积神经网络(FINN)的新方法,它采用了有限体积方法的数值结构来处理偏微分方程,同时容纳可学习参数。FINN 方法不仅能更好地处理控制体之间的通量,从而正确处理不同类型的数值边界条件,并且还能够明确提取和学习本构关系,同时在合成数据集和实际的稀疏实验数据上表现出优秀的泛化能力,因此作为一种数据驱动的建模工具具有相关性。
Apr, 2021
提出了一种基于端到端训练的神经网络的方法,该方法通过将黑盒函数的功能与可微分的神经网络进行逼近,以驱动神经网络遵守黑盒函数接口。在推理时,将不可微分的外部黑盒替换为其可微分的估计器,通过此方法,可以在无需中间标签的情况下,训练一个神经网络,从而计算黑盒功能的输入,并且这种综合模型比完全可微分的模型泛化效果更好,并且相对于基于强化学习的方法学习效率更高。
Jan, 2019
本文提出了针对基于部分积分 - 微分方程训练物理启发网络的问题的解决方案,包括三种类型的解决方法,证实了当前的近似方法的存在偏差,提出了新的延迟目标方法,证明其可以以可比的质量获得精确的解决方案。
May, 2023
本文提出 Finite Basis PINNs (FBPINNs) 方法用于解决大规模微分方程问题。FBPINNs 受到经典有限元方法的启发,使用神经网络学习有 紧支撑的有限基函数来表示微分方程的解,使其具有网格自由性和并行解决多尺度问题的能力。数值实验表明,FBPINNs 既能够解决小模型问题,还能够高效准确地解决大规模复杂问题,比标准的 PINNs 方法具有更好的性能表现。
Jul, 2021
我们研究了神经网络作为替代模型来近似和最小化优化问题中的目标函数的使用,通过确定适合目前非线性优化测试问题目标函数近似的最佳激活函数来提供证明,我们分析通过插值 / 回归模型和神经网络获得的函数值、梯度和 Hessian 矩阵的近似精度,结果显示神经网络在零阶和一阶近似方面表现出较高竞争力(对应较高的训练成本),但在二阶近似方面表现较差。然而,通过将神经网络激活函数与二次插值 / 回归的自然基组合,可以减少模型参数数量。最后,我们提供了证据表明,包括神经网络在内的任何考虑的替代模型用于逼近优化算法的梯度时,都无法明显改善目前最先进的无导数优化算法的性能。
Nov, 2023
本文提出一种组合物理感知有限体积神经网络(FINN),用于学习时空对流扩散过程,可在模拟偏微分方程(PDE)的同时融合人工神经网络的学习能力和数值模拟的物理和结构知识,实验结果表明 FINN 具有卓越的建模准确性、良好的超出分布泛化能力,并且仅需平均十分之一的参数数量就可以在各类情况下优于纯机器学习和其他最先进的物理感知模型。
Nov, 2021
该篇论文调查了神经网络的近似性质,特别是使用 ReLU 激活函数的非线性流形,并比较了这种近似方法与传统数值分析中使用的近似方法之间的差异,着重分析了数值稳定性问题,发现在一定程度上提高了近似能力,但以数值稳定性为代价。
Dec, 2020