使用边细分从 ReLU 网络中提取多面体复合物
本文利用三角化的方法研究了 ReLU 网络在初始化和梯度下降时的多面体形状,并发现它们相对简单,这是一种新的隐式偏差。此外,本研究还通过界定多面体面的平均数来理论上解释了为什么增加深度不会创建更复杂的多面体,并揭示了网络的简单函数模型和空间分割特性,这些结果具有重要的功能复杂性度量、正则化策略影响等方面的应用潜力。
May, 2023
基于深度神经网络的三线性插值方法,我们提出了理论洞见和分析性网格提取方法,展示了在黎曼约束下超曲面向平面的转化,同时介绍了一种逼近三个超曲面相交点的方法,从而在正确性、简洁性和效率等方面进行了经验验证,同时研究了黎曼损失与超曲面平面化之间的相关性。
Feb, 2024
简单的神经网络使用 ReLU 激活可以在各种维度中产生单元球近似的多面体,其种类受网络体系结构的调节,此发现开创了通过机器学习进行离散几何研究的新领域,同时也可以用于训练网络的可视化。
Jul, 2023
本篇论文调查了如何通过多面体理论以及线性规划技术对神经网络进行训练、验证和缩小规模,并概述了深度学习和神经网络中使用的关键词,如 ReLU(线性修正单元)等。
Apr, 2023
通过对神经网络中全连接 ReLU 层的几何结构进行形式化和解释,我们提出了 ReLU 层参数对输入域的自然划分,使得在每个划分区域内,ReLU 层可以大大简化;这导致了一个几何解释:ReLU 层可以看作是一个多面角投影,然后跟随一个仿射变换,与具有 ReLU 激活的卷积网络的描述一致。此结构进一步简化了描述分类问题中决策边界的划分区域和超平面的原像的表达式。我们详细研究了具有一个隐藏 ReLU 层的前馈网络,提供了关于此类网络生成决策边界的几何复杂性的结果,并证明除了仿射变换外,这样的网络只能生成 d 个不同的决策边界。最后,我们还讨论了向网络添加更多层的影响。
Oct, 2023
基于几何 (克利福德) 代数和凸优化,我们介绍了一种新的神经网络分析方法,显示出深度 ReLU 神经网络的最优权重是通过训练样本的外积给出的,并且训练问题可以化简为对外积特征进行凸优化,这些特征编码了训练数据集的几何结构,其中几何结构通过数据向量生成的三角形和平行六面体的符号体积给出。
Sep, 2023
本篇论文阐述了深度 ReLU 网络可以分解成输入空间划分的区域内的线性模型集合,并将该理论推广到图神经网络和张量卷积网络等复杂网络上。此外,该论文证明了神经网络可以被理解为可解释的模型,如多元决策树和逻辑理论,并展示了该模型如何导致便宜且准确的 SHAP 值计算。最后,该理论通过与图神经网络的实验得到了验证。
May, 2023
用浅层的 ReLU 神经网络近似表示分段线性函数与有限元函数之间的关系,并通过有限元函数分析 ReLU 神经网络在 $L^p$ 范数下的逼近能力,同时讨论了最近的张量神经网络在张量有限元函数的严格表示上的应用。
Mar, 2024