Oct, 2019
BERT的通用文本表示:一项实证研究
Universal Text Representation from BERT: An Empirical Study
TL;DR该论文系统地研究了面向通用文本表示的分层BERT激活,以了解其捕获的语言信息以及它们在不同任务之间的可转移性。在下游和探测任务中,句子级别的嵌入与两个最先进的模型进行了比较,而段落级别的嵌入则在四个问答(QA)数据集上进行了学习排名问题设置的评估。结果表明,将预训练的BERT模型微调于自然语言推断数据上可以显著提高嵌入的质量。