BriefGPT.xyz
Ask
alpha
关键词
post-training compression method
搜索结果 - 1
DiTFastAttn:扩散变压器模型的注意力压缩
Diffusion Transformers(DiT)在图像和视频生成方面表现出色,但由于自注意力的二次复杂度而面临计算挑战。我们提出 DiTFastAttn,这是一种新颖的后训练压缩方法,用于减轻 DiT 的计算瓶颈。我们确定了 DiT
→
PDF
24 days ago
Prev
Next