ACLMar, 2022
预训练语言模型如何捕捉事实知识?因果启发式分析
How Pre-trained Language Models Capture Factual Knowledge? A Causal-Inspired Analysis
Shaobo Li, Xiaoguang Li, Lifeng Shang, Zhenhua Dong, Chengjie Sun...
TL;DR本文通过因果分析量化和评估 PLMs 依靠生成缺失字词的单词级模式来回答 PLMs 如何正确生成结果这一谜团并发现 PLMs 更倾向于依靠与缺失字词位置接近和高频共现的单词而非知识依赖型的单词,从而得出 PLMs 因为依靠不充分的关联而效率低下地捕捉实际知识的结论。