关键词relu
搜索结果 - 53
- 优化 CNN-Bigru 性能:Mish 激活函数与 Relu 的对比分析PDFa month ago
- 神经网络中的最小深度PDF4 months ago
- 周期激活坐标网络的神经切比雪夫核分析PDF5 months ago
- 从复杂到清晰:通过 Clifford 的几何代数和凸性分析深度神经网络权重的解析表达PDF9 months ago
- 通过浅层 ReLU 网络学习神经元:相关输入的动力学和隐式偏置PDFa year ago
- MM网络退化作为训练性能的指标:有限与无限角度预测的比较PDFa year ago
- ICMLReLU 网络的最优集合和解路径PDFa year ago
- 从 tempered 到 benign 的 ReLU 神经网络过拟合PDFa year ago
- MM由随机神经网络生成的函数的非线性点PDFa year ago
- MM神经网络中的深度退化问题:初始化时全连接 ReLU 网络中角度逐渐趋近于 0PDFa year ago
- Transformer 中 ReLU 和 Softmax 的研究PDFa year ago
- 探索基于循环神经网络的计数行为的长期泛化能力PDF2 years ago
- 深度强化学习中线性区域发展的理解PDF2 years ago
- Nish:一种新型负激励混合激活函数PDF2 years ago
- CVPR使用渐进式集成激活方法免费提升 ReLU 网络的性能PDF2 years ago
- 无限宽度三层神经网络的实验相图PDF2 years ago
- 卷积和残差网络可证明包含中奖彩票PDF2 years ago
- ReLU 网络逼近紧支撑函数的优势研究PDF2 years ago
- MM基于梯度流的深度学习模型压缩中的显著性探究PDF3 years ago
- SERF:使用 log-Softplus ERror 激活函数实现更好的深度神经网络训练PDF3 years ago
Prev