BriefGPT.xyz
Ask
alpha
关键词
lightseq
搜索结果 - 2
LightSeq:面向长上下文 Transformer 的分布式训练的序列级并行
LightSeq 是一种新的方法,用于长上下文大语言模型 (LLMs) 的训练,在流行的 LLMs 上比 Megatron-LM 通信量少且重叠计算,通过新的梯度检查点方案实现高效的注意力计算。
PDF
9 months ago
ACL
LightSeq:Transformer 高性能推理库
本文提出 LightSeq,一种高效的推断库,以加速 Transformer 系列模型的计算和减少内存占用。实验结果表明,相较于 TensorFlow 和 FasterTransformer,LightSeq 可以实现多达 14 倍的加速。
PDF
4 years ago
Prev
Next