Jan, 2024

基于自编码器的非线性模型降阶技术在算子学习中的泛化误差保证

TL;DR我们利用自动编码器神经网络 (AENet) 研究模型缩减中的低维非线性结构,通过先学习输入数据的潜在变量,然后学习这些潜在变量到相应输出数据的转换,成功地验证了 AENet 准确学习非线性偏微分方程解算符的能力,并建立了数学和统计估计理论来分析 AENet 的泛化误差。我们的理论框架表明训练 AENet 的样本复杂性与模拟过程的内在维度密切相关,同时也展示了 AENet 对噪声的显著鲁棒性。