关键词activation function
搜索结果 - 83
  • ICML通过近似和共享反向传播减少微调内存开销
    PDF8 days ago
  • 一种通用逼近定理的初等证明
    PDF18 days ago
  • 三层神经网络非多项式激活函数的记忆容量
    PDFa month ago
  • 一种寻找更好激活函数的方法
    PDFa month ago
  • IJCAI物理信息神经网络:用宽网络和有效激活减小残差损失
    PDF2 months ago
  • 具有通用激活函数的全连接双层神经网络的解空间和存储容量
    PDF2 months ago
  • 物品或关系 — 人工神经网络学习了什么?
    PDF3 months ago
  • 非线性增强的自适应激活函数
    PDF3 months ago
  • 探索关系:变换自适应激活函数与其他激活函数的比较
    PDF5 months ago
  • IJCAIAPALU:一种用于深度学习网络的可训练自适应激活函数
    PDF5 months ago
  • ReLU$^2$ 胜出:发现稀疏 LLMs 的高效激活函数
    PDF5 months ago
  • 任务结构和非线性性共同决定了学习到的表征几何
    PDF5 months ago
  • 神经网络在近似和优化方面的限制
    PDF7 months ago
  • 欠参数化的学生网络应该复制还是平均教师权重?
    PDF8 months ago
  • 关于 Kolmogorov 神经网络
    PDF8 months ago
  • INCODE: 具有先验知识嵌入的隐式神经调节
    PDF8 months ago
  • 超越 IID 权重:稀疏和低秩深度神经网络也是高斯过程
    PDF8 months ago
  • EMNLP神经网络中的特征提取机制揭示
    PDF8 months ago
  • 无限宽度双层 ReLU 神经网络的同伦放松训练算法
    PDF9 months ago
  • 带有 ReLU,leaky ReLU 和 softplus 激活函数的深度神经网络能够在 $L^p$ 意义下,证明地克服 Kolmogorov 偏微分方程中具有 Lipschitz 非线性的维数灾难
    PDF9 months ago
Prev