BriefGPT.xyz
大模型
Ask
alpha
关键词
sparse rnns
搜索结果 - 1
基块稀疏循环神经网络
研究使用 “修剪” 和 “组稀疏化正则化” 这两种方法来诱导 RNN 网络中的块稀疏性,形成 80% 到 90% 不等的稀疏度;该技术能够消除与数据存储和不规则内存访问相关的额外开销,同时提高硬件效率和降低参数总数。
PDF
7 years ago
Prev
Next