ACLApr, 2022

TANet: 针对抽象对话摘要的线程感知预训练

TL;DR在 NLP 领域中,尽管预训练语言模型(PLMs)取得了巨大的成功,并成为了一个里程碑,但抽象对话摘要仍然是一个具有挑战性但研究较少的任务。本文中,作者们通过在 Reddit 社区中的多人讨论中构建一个大规模(11M)的预训练数据集 RCS,提出了 TANet,一个基于 Transformer 的网络,借助线程感知的关注机制和线程预测损失函数,有效地解决目前模型的局限性,取得了新的最优效果。