EMNLPSep, 2019

用于连续句子分类的预训练语言模型

TL;DR本文提出一种基于预训练语言模型 (BERT) 的方法,能够直接利用所有句子中的所有单词的上下文信息进行文档级理解的任务,且在四个数据集中取得了最先进的结果。