关键词relu activation function
搜索结果 - 21
  • LLaMA 模型中的动态激活陷阱:实证研究
    PDF2 months ago
  • ProSparse: 大型语言模型中引入并增强内在激活稀疏性
    PDF4 months ago
  • 利用线性初始化改进自编码器收敛速度和完全训练误差
    PDF8 months ago
  • 深且窄的前馈神经网络的改进权重初始化
    PDF8 months ago
  • 对近似正交数据的两层 ReLU 和 Leaky ReLU 网络的梯度下降的隐式偏差
    PDF8 months ago
  • 超几何神经网络表示潜在树结构的容量界限
    PDFa year ago
  • 神经网络宽度的数据拓扑相关上界
    PDFa year ago
  • 使用深层 ReLU 网络近似非线性泛函
    PDFa year ago
  • 神经网络逼近
    PDF4 years ago
  • 训练深度为 2 的 ReLU 网络的紧硬度结果
    PDF4 years ago
  • 平滑对抗训练
    PDF4 years ago
  • 神经网络中 ReLU 激活函数和 Softmax 输出层的逼近性能研究
    PDF4 years ago
  • 深度神经网络分类的快速收敛速率
    PDF6 years ago
  • 随机梯度下降优化超参数化的深度 ReLU 网络
    PDF6 years ago
  • 训练 ReLU 神经网络的复杂度
    PDF6 years ago
  • 基于路径范数的 ReLU 神经网络容量控制
    PDF6 years ago
  • 梯度下降量化 ReLU 网络特征
    PDF6 years ago
  • ICLR卷积滤波器何时易于学习?
    PDF7 years ago
  • 使用具有 ReLU 激活函数的深度神经网络进行非参数回归
    PDF7 years ago
  • 分段线性神经网络的近乎紧凑 VC 维度和伪维度限制
    PDF7 years ago
Prev