图卷积网络线性区域数量的下限和上限
本文研究深度神经网络的表达能力,用 ReLU 卷积神经网络的线性区域数量来量化表达能力,并给出一层 ReLU 卷积神经网络的线性区域数量的上下界以及多层 ReLU 卷积神经网络的最大和平均线性区域数量,结果表明深度卷积神经网络比浅层卷积神经网络和全连接神经网络更具表达能力。
Jun, 2020
本研究通过提供一种数学框架来计算分段线性网络的线性区域数量和边界体积,证明神经网络在初始化时的线性区域数量沿任何一维子空间的平均值是总神经元数的线性增长,远低于指数上界,我们得出结论:神经网络的实际表达能力可能远低于理论最大值,并可以量化。
Jan, 2019
本篇研究探讨使用深度神经网络表示分段线性函数时的复杂度,特别是研究 DNN 可以达到的线性区域数量,包括具有一维输入精确的视线整流器网络的最大线性区域数的更紧密的上下界,多层 Maxout 网络的第一个上界以及通过将 DNN 建模为混合整数线性公式来执行精确枚举或计数的第一个方法。结果表明,如果每个神经元的数量大于输入的维数,则使用深视网根网络只能具有比每个具有相同神经元数量的浅对应网络更多的线性区域。
Nov, 2017
对于基于 ReLU 的深度神经网络,我们通过计算线性凸区域的数量,证明了任何一维输入都需要至少一定数量的神经元来表达。我们还发现对于相同的网络,复杂的输入会限制其表达线性区域的能力。此外,我们揭示了 ReLU 网络在训练过程中决策边界的迭代优化过程。我们希望本研究能够激发网络优化的努力,并有助于深度网络行为的探索和分析。
Oct, 2023
通过消除 GCN 中的不必要的非线性和权重矩阵,我们提出了一种线性模型,它对应于一个固定的低通滤波器,然后是一个线性分类器。 在许多下游应用中,我们的实验评估表明这种简化并不会对精度产生负面影响。 此外,由于我们的模型简化减少了计算量,因此我们的模型在更大的数据集上具有可扩展性,并且具有更快的推理速度。
Feb, 2019
通过研究图卷积网络的表示能力,我们发现 GCNs 在学习图瞬间时有一定限制,而使用不同传播规则的模块化 GCN 设计可以显著提高其性能和表示能力。
Jul, 2019
本文研究了具有线性前突触耦合和整流线性激活的深度前馈网络的复杂性,并提供了一种比较深度和浅层模型的框架,该框架基于计算几何学中的分段线性函数。研究发现:即使当 $k$ 很小的时候,如果我们将 $n$ 限制为 $2n_0$,则深度模型具有比浅层模型更多的线性区域。
Dec, 2013