BriefGPT.xyz
Ask
alpha
关键词
rational activation functions
搜索结果 - 1
理性神经网络
本文探讨了神经网络中的有理激活函数,证明了有理神经网络比指数小的深度下的 ReLU 神经网络更高效地逼近光滑函数,并通过数值实验证明了有理激活函数的灵活性和平滑性使其成为 ReLU 的有吸引力的替代选择。
PDF
4 years ago
Prev
Next