BriefGPT.xyz
Ask
alpha
关键词
label attention layer
搜索结果 - 1
EMNLP
重新思考自注意力:朝向神经解析可解释性
本研究提出了标签关注层,一种新的自注意形式,其中关注头表示标签。运行实验并在 Penn Treebank(PTB)和中文 Treebank 上展示出其在词法句法分析方面的最新成果,标签关注层在该实验中表现出了更好的性能,相比现有工作需要较少
→
PDF
5 years ago
Prev
Next