BriefGPT.xyz
Ask
alpha
关键词
relus
搜索结果 - 3
学习如何增强卷积神经网络中的负面信息
本文提出了一种可学习的非线性激活机制 LENI,旨在增强 CNN 中的负信息,并通过实验证明 LENI 可以提高模型的表示能力,同时保持 ReLU 的优点。
PDF
a year ago
高斯边缘下分别学习半空间和 ReLU 的近最优 SQ 下界
该论文研究了在高斯边际下以不可知方式学习半空间和 ReLU 的基本问题,证明了这些问题的统计查询下限。
PDF
4 years ago
利用整流器单元的稀疏性加速卷积神经网络
本研究针对深度卷积神经网络中常用的整流线性单元(ReLU),探究其输出的稀疏性质,并借此来加速卷积计算,通过跳过计算零值神经元的方法,相比传统矩阵乘法,当稀疏度不低于 0.9 时,在 CPU 上实现了较大的加速。
PDF
7 years ago
Prev
Next