BriefGPT.xyz
Ask
alpha
关键词
token sparsification
搜索结果 - 3
CVPR
从标记稀疏化视角提高视觉 Transformer 的效率
本文介绍了一种基于语义标记的 ViT 模型,可以用于图像分类以及物体检测和实例分割等任务,并通过对空间中的池化图像标记进行 attention 的方法,来取代大量的图像标记,从而实现了网络的降维升效。
PDF
a year ago
动态空间稀疏化:用于高效视觉 Transformer 和卷积神经网络的优化
本文提出了一种通过利用视觉数据中的空间稀疏性进行模型加速的新方法,该方法基于所提出的动态令牌稀疏化框架,并通过自适应和不对称计算等方式推广到各种体系结构中,通过对不重要的特征使用轻量级快速路径和对更重要位置使用更具表现力的慢速路径,可以显著
→
PDF
2 years ago
DynamicViT:动态 Token 稀疏化的高效视觉 Transformers
提出了一种动态的、基于输入的 Token 稀疏化框架,通过阈值删除多余的信息元素,并通过自注意力网络的特性,使其仍然具有硬件友好性。在保证精度的同时,相比现有 CNN 和 Transformer 模型,通过分层删减 66% 的输入元素,可以
→
PDF
3 years ago
Prev
Next