本文利用三角化的方法研究了 ReLU 网络在初始化和梯度下降时的多面体形状,并发现它们相对简单,这是一种新的隐式偏差。此外,本研究还通过界定多面体面的平均数来理论上解释了为什么增加深度不会创建更复杂的多面体,并揭示了网络的简单函数模型和空间分割特性,这些结果具有重要的功能复杂性度量、正则化策略影响等方面的应用潜力。
May, 2023
本篇论文阐述了深度 ReLU 网络可以分解成输入空间划分的区域内的线性模型集合,并将该理论推广到图神经网络和张量卷积网络等复杂网络上。此外,该论文证明了神经网络可以被理解为可解释的模型,如多元决策树和逻辑理论,并展示了该模型如何导致便宜且准确的 SHAP 值计算。最后,该理论通过与图神经网络的实验得到了验证。
简单的神经网络使用 ReLU 激活可以在各种维度中产生单元球近似的多面体,其种类受网络体系结构的调节,此发现开创了通过机器学习进行离散几何研究的新领域,同时也可以用于训练网络的可视化。
Jul, 2023
本文提出基于 sign-vectors 的多面体分割方法,并应用于神经形状表示的几何属性优化,其速度快且在消费级机器上可用。
Jun, 2023
本篇论文调查了如何通过多面体理论以及线性规划技术对神经网络进行训练、验证和缩小规模,并概述了深度学习和神经网络中使用的关键词,如 ReLU(线性修正单元)等。
Apr, 2023
用浅层的 ReLU 神经网络近似表示分段线性函数与有限元函数之间的关系,并通过有限元函数分析 ReLU 神经网络在 $L^p$ 范数下的逼近能力,同时讨论了最近的张量神经网络在张量有限元函数的严格表示上的应用。
Mar, 2024
本文研究了在低维多條件上 H"{o} lder 函数的非参数回归问题,并使用深层 ReLU 网络实现,研究结果表明深层 ReLU 网络具有适应低维几何结构的能力,可快速收敛于数据固有维度,进而解决高维数据的低维几何结构问题。
Aug, 2019
本研究使用混合整数优化、多面体理论、热带几何等技术探究神经网络单隐藏层能否学习到所有函数的普适逼近定理,为可表示函数的类提供了数学支持。同时,解决了 Wang 和 Sun (2005) 关于分段线性函数的一项猜想,并提出了表示具有对数深度函数所需神经网络的上限。
May, 2021
神经网络的拓扑结构及同调群,以及仿射映射与任务连续性的关系的研究。
Apr, 2024
本文研究使用带有 ReLU 的深度神经网络能够代表的函数家族,提供了一个训练一个 ReLU 深度神经网络的一种算法,同时提高了在将 ReLU 神经网络函数逼近为浅层 ReLU 网络时已知下限的上界,并证明了这些间隙定理。
Nov, 2016