关键词relu activation
搜索结果 - 30
  • 判定 ReLU 神经网络的单射性和满射性的复杂度
    PDFa month ago
  • AAAI通过移除 GELU 激活函数加速整数 SWIN Transformer 的推断
    PDF5 months ago
  • ReLU 反击:在大型语言模型中利用激活稀疏性
    PDF9 months ago
  • ICML神经多面体
    PDFa year ago
  • 信息瓶颈理论的法官
    PDFa year ago
  • CVPR基于海明相似度与图拉普拉斯算子进行类别划分及对抗性图像检测
    PDFa year ago
  • BN 与 ReLU 之间的不协调导致梯度爆炸,但被激活之间的相关性所抵消
    PDFa year ago
  • 深度神经网络逼近复合函数的无维度诅咒
    PDFa year ago
  • 人工神经网络逼近某些平滑有界函数类的必要深度,无须维数灾难
    PDFa year ago
  • 一个基于信息理论的监督学习框架
    PDF2 years ago
  • ICML关于过拟合两层神经切向核模型的泛化能力
    PDF3 years ago
  • 过参数神经网络优化算法的动力学视角
    PDF4 years ago
  • 超参数化的两层 ReLU 神经网络学习研究:从 NTK 出发
    PDF4 years ago
  • 超参数对抗训练:克服维数灾难的一种分析
    PDF4 years ago
  • 使用逻辑损失训练的宽两层神经网络的梯度下降的隐含偏见
    PDF4 years ago
  • ICML深层门控网络:深度学习训练和泛化的框架理解
    PDF4 years ago
  • 具有阈值和 ReLU 激活函数的神经网络的记忆容量
    PDF4 years ago
  • 逐层反转深度生成模型
    PDF5 years ago
  • 通过过度参数化将神经网络嵌入半扁平极小点和鞍点
    PDF5 years ago
  • ICML卷积神经网络中的隐式滤波器稀疏化
    PDF5 years ago
Prev