Jul, 2023

基于残差的注意力和信息瓶颈理论在 PINNs 中的连接

TL;DR本文提出一种有效的、无需梯度加权的物理知识神经网络(PINNs)加速收敛的机制,并通过研究权重的演化来解释它与信息瓶颈理论的关系,我们的方法在典型的基准案例中一致实现了相对 $L^{2}$ 误差为 $10^{-5}$,这种新颖的关联可能为理解 PINNs 和神经算子的训练和稳定性奠定基础。