BriefGPT.xyz
Ask
alpha
关键词
thread-aware attention
搜索结果 - 1
ACL
TANet: 针对抽象对话摘要的线程感知预训练
在 NLP 领域中,尽管预训练语言模型(PLMs)取得了巨大的成功,并成为了一个里程碑,但抽象对话摘要仍然是一个具有挑战性但研究较少的任务。本文中,作者们通过在 Reddit 社区中的多人讨论中构建一个大规模(11M)的预训练数据集 RCS
→
PDF
2 years ago
Prev
Next