BriefGPT.xyz
Ask
alpha
关键词
training memory overhead
搜索结果 - 1
在视觉 Transformer 中追求稀疏性:一次端到端的探索
本文旨在从减小训练存储开销和推理复杂度的角度,提出一种先将 Vision transformers 稀疏化,然后再训练的方法,从而实现一定的加速效果并保持较高的精度。
PDF
3 years ago
Prev
Next