BriefGPT.xyz
Ask
alpha
关键词
window attention
搜索结果 - 3
窗口关注存在漏洞:如何不插入位置嵌入
在现代计算机视觉转换器时代,窗口注意力、位置嵌入和高分辨率微调是核心概念。然而,我们发现,天真地结合这些几乎无处不在的组件可能会对性能产生不利影响。我们研究了两种具有这三个组件的最先进方法,即 Hiera 和 ViTDet,发现两者都确实遭
→
PDF
8 months ago
注意力汇聚的高效流式语言模型
部署大型语言模型(LLMs)在流式应用中的一个研究论文,介绍了两个主要挑战和一个有效的解决方案 StreamingLLM,用于长文本的流式部署,能够在无需微调的情况下实现 LLMs 的稳定和高效的语言建模。
PDF
9 months ago
探索纯视觉 Transformer 主干网络在目标检测中的应用
本研究探讨使用层次结构大减的视觉变换器(ViT)作为物体检测的骨干网络,使用最小调整实现简单的特征金字塔和窗口注意力,预训练和微调使用 ViT 和掩码自编码器,提出的模型在 COCO 数据集上达到 61.3 AP_box,与使用层次骨干网络
→
PDF
2 years ago
Prev
Next