BriefGPT.xyz
大模型
Ask
alpha
关键词
constituent attention
搜索结果 - 1
EMNLP
树形 Transformer:将树形结构集成到自注意力中
使用自注意力机制来诱导目标树结构,从而产生更好的语言模型,更可解释的注意力分数,并达到实验效果的 Transformer 变种 (Tree Transformer) 的提出。
PDF
5 years ago
Prev
Next