BriefGPT.xyz
Ask
alpha
关键词
distributed data-parallel training
搜索结果 - 3
BLoad:增强神经网络训练的高效顺序数据处理
使用新的训练方案,能够在不同大小的序列上实现高效的分布式数据并行训练,最小化内存消耗,并在实验中取得了整体性能的提升。
PDF
9 months ago
GraVAC:通信高效的分布式深度学习训练自适应压缩
本文介绍了 GraVAC,一种动态调整压缩因子的框架,用于在分布式数据并行训练中降低通信开销并提高训练速度。GraVAC 可以根据模型进展和梯度信息损失自适应地进行压缩,相较于静态压缩因子,可以将 ResNet101,VGG16 和 LST
→
PDF
a year ago
AAAI
分布式深度学习压缩通信的理论分析与实际实现之间的差异
通过实验和理论分析,本文表明在深度神经网络的分布式数据并行训练中,面向单个层的压缩比面向整个模型的压缩方式更好,但实验也显示,具体训练模型和压缩率都可能导致实际收敛率的变化。因此,本文建议深度学习框架应支持面向单个层和整个模型的压缩方式。
PDF
5 years ago
Prev
Next