这篇论文介绍了一种名为 Sobolev Training 的神经网络训练方法,可以在优化神经网络输出的同时优化其导数,从而提高学习函数近似的效果,并取得了在三个不同领域的实证结果。
Jun, 2017
本研究通过探讨 Sobolev 训练在操作符学习框架中对模型性能的影响,发现将导数信息集成到损失函数中能够增强训练过程,并提出了一种新的框架以在不规则网格上近似导数。实验证据和理论分析均支持了我们的研究结果,表明 Sobolev 训练在近似无穷维空间之间的解算符上是有效的。
Feb, 2024
本文讨论了使用神经网络进行偏微分方程算法中的代理建模,并比较了多种神经网络框架对于连续力学中的 PDE 模型的算子逼近问题的数值研究结果。
Mar, 2022
提出三种方法以分析密集回归训练网络的输出方差,在推理过程中无需重新训练或调整模型,这些方法得出的不确定性估计结果与需要重新训练以及调整的最先进的方法相当甚至更好。
Sep, 2019
通过将优化问题表示为元变量的线性组合,我们学习了大规模优化问题的低维代理模型。通过端到端地训练低维代理模型和预测模型,我们实现了训练和推断时间的大幅减少,同时通过关注优化中的重要变量和在更平滑的空间中学习来提高性能。
Jun, 2020
使用代理 Lagrange 松弛的系统性权重剪枝优化方法,可以通过少量的重新训练,实现比现有技术更快的收敛速度和更高的剪枝压缩率,同时维持高精度。
Apr, 2023
该研究探讨了一种最坏情况的方法来衡量随机系统性能分析中的模型误差敏感性,通过 Kullback-Leibler(KL)散度度量模型误差,并通过优化计算程序来计算最坏情况性能指标,通过创新的微小近似方法,得出了这些程序的最优值渐近展开式,展开式系数可以通过模拟计算,并从最坏情况模型的表示中派生而来,这些表示作为函数不动点方程组的定义。
Mar, 2013
建模对理解温室气体、全球变暖和冰盖融化对海洋的影响至关重要。神经网络模型精确预测了理想化海洋模型的一步前向动力学,并计算了参数敏感性。
Nov, 2023
本文提供了一种新的方法(parametric surrogate gradient),用于根据候选 SG 的形状来确定最优 surrogate gradient 参数,以及用于调整潜在偏移量的方法(PDA),以帮助 SNNs 在更少的时间步骤内实现最先进的性能,并成功应用于静态和动态数据集的模拟中。
本文提出了一种结合神经网络和基于随机微分方程的经典风险模型的模型 —— 神经 SDE 模型,该模型可以根据市场数据进行一致性校准,并用于模拟市场场景以评估风险和对冲策略。
Jul, 2020