Mar, 2024

PINNs 中的学习:相变、全扩散和泛化

TL;DR通过梯度信噪比(SNR)研究全连接神经网络的学习动态,探讨了 Adam 等一阶优化器在非凸目标中的行为,通过信息瓶颈理论中的漂移 / 扩散相,聚焦梯度均匀性,确定了一个被称为 “总扩散” 阶段的第三个阶段,特征为学习速率和梯度均匀,该阶段表现出 SNR 急剧增加,样本空间中的均匀残差和最快的训练收敛,提出了一种基于残差的重新加权方案,在二次损失函数中加速此扩散,增强泛化,还探索了信息压缩现象,指出在总扩散阶段会引起激活函数的显著饱和压缩,深层次经历几乎无信息损失,通过基于物理知识的神经网络(PINNs)的实验数据支持,这突显了梯度均匀性的重要性,因为它们基于偏微分方程样本的相互依赖,我们的发现表明,识别相变可以改进机器学习优化策略以获得更好的泛化能力。