BriefGPT.xyz
Ask
alpha
关键词
multi-granularity sparse attentions
搜索结果 - 1
EMNLP
HETFORMER:用于长文本抽取式摘要的稀疏注意力异构 Transformer
本文提出了一种基于 Transformer 的预训练模型,通过多粒度稀疏注意力机制,从长文本中捕捉语义图结构并进行提取式摘要,实验证明 HETFORMER 在 Rouge F1 上具有最先进的性能,同时使用更少的内存和参数。
PDF
3 years ago
Prev
Next