Sep, 2019
BERT是如何回答问题的:对Transformer表示进行逐层分析
How Does BERT Answer Questions? A Layer-Wise Analysis of Transformer
Representations
TL;DR我们对BERT的隐藏状态进行逐层分析,揭示了这些状态所包含的有价值的信息,包括QA任务fine-tuned的模型如何转换令牌向量以找到正确的答案。通过应用一组用于揭示每个表示层中存储信息的一般和QA特定探测任务,我们的分析显示BERT的转换经历了与传统pipeline任务相关的阶段,且细微调整对模型的语意能力影响不大,即使在早期层也可以识别出预测错误。