BriefGPT.xyz
Ask
alpha
关键词
dot product attention
搜索结果 - 1
ACL
高速公路变压器:自门控增强自注意网络
通过将 LSTM 并入已有的 multi-headed dot product attention 机制中作为 gated component self-dependency units,使信息流动更加顺畅,从而提高了在序列学习任务中的性能
→
PDF
4 years ago
Prev
Next