Sep, 2024

基于混合GPU压缩加速大语言模型训练

TL;DR本研究解决了大型语言模型训练中通信开销的问题。通过与GPU压缩库共同设计的MPI库,提出了一种混合压缩策略,以减少在分布式训练中的信息传输错误,并提高训练效率。结果表明,该方法使每个GPU的TFLOPS提高了17.3%,样本处理速度提高了12.7%。