本文通过应用 Hamilton 神经网络来学习和利用物理系统中保守量的对称约束,通过适当的损失函数来实现周期坐标的强制,从而在简单的经典动力学任务中实现了更高的准确性,进而拟合出网络中的隐向量的解析式,从中发现利用了保守量,如角动量。
Apr, 2021
通过内在对称性的理论框架,使用有限差分法实现了在实践中使用的有限学习率的精确积分表达式来描述在任何数据集上通过深度学习训练出的当代网络体系结构的各种参数组合的学习动力学。
Dec, 2020
本文介绍了四种可以插入神经网络模型中的操作,并将它们组合起来使这些模型具有部分对称旋转性,并且使得神经网络可以在不同方向共享参数,从而达到更好的性能和模型尺寸。
Feb, 2016
通过梯度下降,我们研究了学习等变神经网络的问题。尽管已知的问题对称(“等变性”)被纳入神经网络中,经验上改善了从生物学到计算机视觉等领域的学习流程的性能,但是一项有关学习理论的研究表明,在相关统计查询模型(CSQ)中,实际学习浅层全连接(即非对称)网络的复杂度呈指数级增长。在这项工作中,我们提出了一个问题:已知的问题对称是否足以减轻通过梯度下降学习等变神经网络的基本困难?我们的答案是否定的。特别地,我们给出了浅层图神经网络、卷积网络、不变多项式和排列子群的框架平均网络的下界,这些下界在相关输入维度中都以超多项式或指数级增长。因此,尽管通过对称性注入了显著的归纳偏差,但通过梯度下降实际学习等变神经网络所代表的完整函数类仍然是困难的。
Jan, 2024
本文介绍一种使用群等变卷积神经网络来解决逆问题的学习重建方法,通过在迭代方法中建立群等变卷积神经网络解决拉伸同变的问题,实现了低剂量计算机断层成像重建和子采样磁共振成像重建的质量提升。
Feb, 2021
介绍了一种新的卷积神经网络 (CNN) 架构,通过一类偏微分方程 (PDE) 即准线性双曲系统的启发,性能与图像分类任务相媲美,允许通过连续的对称性修改权重,与传统模型不同,其网络架构和权重实质上是固定的。我们希望将 (内部) 对称性作为一种新的神经网络的理想属性,并在更广泛的深度学习社区中引起对 PDE 视角分析和解释 CNN 的关注。
Aug, 2023
通过研究发现,即使强制施加不完全匹配于领域对称性的 equivariance 约束,也能显著提高机器学习环境中对真实对称性的学习效率和性能。在强制施加 extrinsic symmetry 的情况下,在具有潜在对称性的领域中,equivariant model 的表现优于 non-equivariant 方法。
Nov, 2022
本研究建立了多尺度同变 GNN 模型用于预测流体流动情况,并研究了同变和不变表示方法对模型预测的影响,结果表明使用不变量可以更准确地预测长期流体流动情况且这些不变量可以通过数据驱动编码器学习。
May, 2023
本研究针对深度网络权重空间中的对称性问题,探讨了使用基于单位范数的约束来改善权重空间对称性问题的方法,并通过 MNIST 数据集上的实验证明该方法优于批量归一化方法且不会影响权重更新的计算性能。
Nov, 2015
本文的重点是将物理约束嵌入神经网络的结构中,以解决神经网络在物理应用中缺乏可解释性和物理不可知设计的问题,通过限制可调参数并添加特殊层,保证所需约束不需要显式正则化项即可满足,为解决函数的奇偶对称性和能量守恒问题提出了监督和非监督网络,并提出了一种嵌入所谓辛结构的无监督神经网络解决系统的守恒微分方程,表现出比非辛神经网络更好的性能。
Apr, 2019