学习预设的 ReLU 网络
通过把非凸培训问题重新定义为凸程序,我们开发了一个分析框架来表征最佳 ReLU 神经网络的集合,并指出凸参数化的全局最优解是由一个多面体集合给出的。我们还扩展了这种特征,以获得非凸培训目标的最优集合。由于 ReLU 培训问题的所有静态点都可以表示为子采样凸计划的最优解,因此我们的工作为所有非凸目标的临界点提供了一个一般表达式。我们利用这些结果,提供了一种计算最小网络的最佳减枝算法,建立了 ReLU 网络正则化路径连续的条件,并开发了最小 ReLU 网络的灵敏度结果。
May, 2023
本篇论文调查了如何通过多面体理论以及线性规划技术对神经网络进行训练、验证和缩小规模,并概述了深度学习和神经网络中使用的关键词,如 ReLU(线性修正单元)等。
Apr, 2023
本篇论文阐述了深度 ReLU 网络可以分解成输入空间划分的区域内的线性模型集合,并将该理论推广到图神经网络和张量卷积网络等复杂网络上。此外,该论文证明了神经网络可以被理解为可解释的模型,如多元决策树和逻辑理论,并展示了该模型如何导致便宜且准确的 SHAP 值计算。最后,该理论通过与图神经网络的实验得到了验证。
May, 2023
在这篇论文中,我们展示了使用 actor-critic 算法将从 actor-critic 算法学习到的策略转化为以程序形式编码的策略的连接,以此避免了需要使用特定于 PIRL 的算法的问题。实证结果表明,这种转化方法能够学习出简短而有效的策略,并且这些转化后的策略至少具有与 PIRL 算法相竞争的水平,往往更优秀。
Aug, 2023
通过对常用凸松弛方法进行深入研究,我们发现:(i)更高级的松弛方法允许更多单变量函数被精确分析的 ReLU 网络表达,(ii)更精确的松弛方法能够允许指数级规模的解空间编码相同函数的 ReLU 网络,以及(iii)即使使用最精确的单神经元松弛方法,也无法构建能够精确分析多变量凸、单调的分段线性函数的 ReLU 网络。
Nov, 2023
本研究使用混合整数优化、多面体理论、热带几何等技术探究神经网络单隐藏层能否学习到所有函数的普适逼近定理,为可表示函数的类提供了数学支持。同时,解决了 Wang 和 Sun (2005) 关于分段线性函数的一项猜想,并提出了表示具有对数深度函数所需神经网络的上限。
May, 2021
通过第二阶 B 样条小波的灵感,我们给深度神经网络 (DNN) 每一层的 ReLU 神经元引入一组简单的约束以修正其谱偏差,从而实现对各种隐式神经表示任务的有效使用。通过实验证明,与普遍观点相反,基于只包含 ReLU 神经元的 DNN 可以学习出最先进的隐式神经表示。我们利用最近关于 ReLU 神经网络学习函数类型的理论工作,提供了一种量化学习函数规则性的方法,为 INR 架构中的超参数选择提供了有原则的方法。通过在信号表示、超分辨率和计算机断层扫描等领域进行实验,我们验证了我们方法的多样性和有效性。所有实验的代码可以在此 URL 中找到。
Jun, 2024
该论文研究了深度神经网络的近似和表达能力,证明了神经网络在目标应用中比传统的非线性近似方法具有更强的近似能力,其中逼近单变量函数的 ReLU 神经网络是研究的重点,然而,尚缺乏一种完全定量化神经网络近似能力的理论。
May, 2019
研究表明,修正线性单元(ReLU)不仅可以改善梯度消失问题、实现高效反向传播,且在学习参数方面具有稀疏性;本文则从表现力的角度探究了 ReLU 网络的决策边界,并实验证明两层 ReLU 网络的决策边界可以被阈值网络广泛捕捉,而后者可能需要一个指数级别的更多的隐藏单元。此外,本文还提出了系数条件,将符号网络表示为 ReLU 网络的隐藏单元数量可以倍减。最后,作者通过对一些合成数据进行实验比较了 ReLU 网络和阈值网络及它们较小的 ReLU 网络的学习能力。
Nov, 2015