BriefGPT.xyz
大模型
Ask
alpha
关键词
pre-trained vision transformer
搜索结果 - 2
稀疏调整:用高效的微调和推理调整视觉 Transformer
Sparse-Tuning 是一种新的调优范式,通过稀疏保存信息标记并合并冗余标记,提高对前景的关注并降低背景区域的计算成本,实现了对预训练的 ViT 模型进行高效的微调和推断,同时具备了现有方法无法满足的 GPU 内存和时间效率要求。
PDF
a month ago
跨模态正交高阶增强的 RGB - 事件 Transformer 跟踪器
本研究针对 RGB 视频和事件数据的跨模态物体追踪问题,通过利用预先训练的视觉变换器 (ViT) 的巨大潜力,探索了构建复杂的跨模态融合网络的可能性。特别地,我们精心研究了一种插件式训练增强方法,以鼓励 ViT 填补两种模态之间巨大分布差异
→
PDF
a year ago
Prev
Next