BriefGPT.xyz
Ask
alpha
关键词
multi-layer version
搜索结果 - 1
多层可学习的多模态任务注意力掩码
通过引入可学习的注意力掩码(LAM)来全局调控注意力图并优先选择序列中的关键标记,该方法在 BERT-like transformer 网络中充分捕捉了标记之间的关联,通过对多层版本的 LAM 的扩展适应了 Transformer 网络各层
→
PDF
a month ago
Prev
Next