Mar, 2024

利用不确定性量化来描述和改善偏微分方程的领域外学习

TL;DR在科学机器学习中,研究人员发现利用数据驱动的解算器学习可以提供快速的近似解决方案,作为传统数值偏微分方程求解器的替代方法。本研究通过聚合多个神经操作器,识别高误差区域并提供与预测误差相关的良好不确定性估计,从而解决了现有神经操作器方法在域外测试输入上的不确定性量化问题。基于这一结果,提出了一种经济高效的方法 DiverseNO,通过鼓励多个神经操作器在最后的前馈层中产生不同预测结果来模拟集成的特性。同时,引入了 Operator-ProbConserv 方法,将这些经过良好校准的不确定性估计嵌入 ProbConserv 框架以更新模型。实验结果表明,Operator-ProbConserv 提高了挑战性偏微分方程问题的域外模型性能,并满足了物理约束条件如守恒定律。