BriefGPT.xyz
Ask
alpha
关键词
sparse gradient updates
搜索结果 - 1
基于随机哈希的可扩展可持续深度学习
提出了一种基于哈希的新技术,通过只处理少量的节点来显著降低训练和测试深度神经网络的计算成本,该算法只使用了原始模型总乘法数的 5%,同时保持平均精度在 1%以内,其更新始终是稀疏的,使得算法非常适合异步和并行训练,端到端实验展示了该算法的可
→
PDF
8 years ago
Prev
Next