BriefGPT.xyz
Ask
alpha
关键词
attention-based transformer models
搜索结果 - 2
CVPR
广义少样本分割的视觉引导:多尺度方法
通过使用学习到的视觉提示,我们的工作研究了在少样本情况下,通过对 Transformer 解码器进行提示,来提高普适少样本分割(GFSS)任务的效果。我们提出了一种利用少量样本学习视觉提示的方法,通过这些学习到的视觉提示,我们可以对多尺度
→
PDF
3 months ago
BERT 中信息流的解释的影响模式
介绍了影响模式来理解注意力机制,发现 BERT 模型中信息流主要通过跳跃连接而非注意力头,而且模式的一致性是 BERT 性能的一个指标,比以前的注意力和层次方法更好。
PDF
4 years ago
Prev
Next