关键词relu
搜索结果 - 53
  • 优化 CNN-Bigru 性能:Mish 激活函数与 Relu 的对比分析
    PDFa month ago
  • 神经网络中的最小深度
    PDF4 months ago
  • 周期激活坐标网络的神经切比雪夫核分析
    PDF5 months ago
  • 从复杂到清晰:通过 Clifford 的几何代数和凸性分析深度神经网络权重的解析表达
    PDF9 months ago
  • 通过浅层 ReLU 网络学习神经元:相关输入的动力学和隐式偏置
    PDFa year ago
  • MM网络退化作为训练性能的指标:有限与无限角度预测的比较
    PDFa year ago
  • ICMLReLU 网络的最优集合和解路径
    PDFa year ago
  • 从 tempered 到 benign 的 ReLU 神经网络过拟合
    PDFa year ago
  • MM由随机神经网络生成的函数的非线性点
    PDFa year ago
  • MM神经网络中的深度退化问题:初始化时全连接 ReLU 网络中角度逐渐趋近于 0
    PDFa year ago
  • Transformer 中 ReLU 和 Softmax 的研究
    PDFa year ago
  • 探索基于循环神经网络的计数行为的长期泛化能力
    PDF2 years ago
  • 深度强化学习中线性区域发展的理解
    PDF2 years ago
  • Nish:一种新型负激励混合激活函数
    PDF2 years ago
  • CVPR使用渐进式集成激活方法免费提升 ReLU 网络的性能
    PDF2 years ago
  • 无限宽度三层神经网络的实验相图
    PDF2 years ago
  • 卷积和残差网络可证明包含中奖彩票
    PDF2 years ago
  • ReLU 网络逼近紧支撑函数的优势研究
    PDF2 years ago
  • MM基于梯度流的深度学习模型压缩中的显著性探究
    PDF3 years ago
  • SERF:使用 log-Softplus ERror 激活函数实现更好的深度神经网络训练
    PDF3 years ago
Prev