关键词activation function
搜索结果 - 84
- 带有 ReLU,leaky ReLU 和 softplus 激活函数的深度神经网络能够在 $L^p$ 意义下,证明地克服 Kolmogorov 偏微分方程中具有 Lipschitz 非线性的维数灾难PDF9 months ago
- ReLU 网络在紧致定义域上的全局逼近最小宽度PDF9 months ago
- 浅层神经网络的几何结构与 L2 代价最小化构建PDF9 months ago
- 仅关注注意力的 Transformer 模型及使用注意力头实现的 MLPPDF10 months ago
- 自旋电子学用于图像识别:通过超快数据驱动模拟进行性能基准测试PDFa year ago
- STL:一种用于神经网络的带符号和截断的对数激活函数PDFa year ago
- 理解卷积神经网络的前向过程PDFa year ago
- 通过隐藏层的线性可分性理解深度神经网络PDFa year ago
- ErfReLU: 深度神经网络自适应激活函数PDFa year ago
- 初始猜测偏差:未经培训的神经网络偏向某些类别PDFa year ago
- 两种近似算法的故事:通过欠 - 过估算收紧 DNN 的稳健性验证PDFa year ago
- 深度学习中的 GELU 激活函数:全面的数学分析和性能评估PDFa year ago
- 神经网络训练与 ETR 的复杂度:有效连续函数扩展PDFa year ago
- ReLU 缓解 NTK 条件数并加速宽神经网络的优化PDFa year ago
- TaLU: 一种混合 Tanh 和 ReLU 的激活函数,用于增强神经网络PDFa year ago
- 激活函数的不激活:神经网络解释的合理理论PDFa year ago
- 浅层神经网络的插值性质PDFa year ago
- 放大正弦单元:一种用于深度神经网络的振荡激活函数,以有效恢复非线性振动PDFa year ago
- ACL关于线性递归网络在长序列括号计数上的理论条件和实证失败PDFa year ago
- 关于径向基函数神经网络的普遍逼近性质PDFa year ago