关键词activation functions
搜索结果 - 147
  • ICMLLayerMerge: 神经网络深度压缩通过层修剪和合并
    PDF12 days ago
  • 潜在辅助网络:在强化学习中重新发现双曲正切函数
    PDF17 days ago
  • MeanSparse: 通过平均中心的特征稀疏化来增强训练后的鲁棒性
    PDF21 days ago
  • 优化 CNN-Bigru 性能:Mish 激活函数与 Relu 的对比分析
    PDFa month ago
  • 神经网络中的半环激活
    PDFa month ago
  • 带周期激活函数的指导与控制网络
    PDFa month ago
  • 扩展的门控范围改善激活函数
    PDFa month ago
  • 一种用于替代梯度学习的广义神经切向核
    PDFa month ago
  • 无人机群预测与优化轨迹的人工智能算法
    PDFa month ago
  • 比 ReLU 类激活函数显著更好的一类激活函数
    PDF2 months ago
  • 您的网络可能需要重写:基于高维函数图解的网络对抗
    PDF2 months ago
  • KAN:科尔莫哥洛夫-阿诺德网络
    PDF2 months ago
  • 高效的机器学习激活函数的量子电路,包括常数 T 深度 ReLU
    PDF3 months ago
  • 深度神经网络的奇异黎曼几何方法 III. 分段可微层与 $n$ 维类的随机漫步
    PDF3 months ago
  • 图神经网络与算术电路
    PDF4 months ago
  • 用坐标搜索算法训练人工神经网络
    PDF4 months ago
  • 神经网络中 400 种激活函数的综合调查:三十年的研究
    PDF5 months ago
  • IJCAI在数据约束下,利用平方 Sigmoid TanH(SST)激活增强顺序模型性能
    PDF5 months ago
  • 稀疏实验数据预测建模的自适应激活函数
    PDF5 months ago
  • 多线性操作器网络
    PDF5 months ago
Prev