EMNLPMay, 2020

BERT-kNN:为预训练语言模型添加 kNN 搜索组件以提升 QA

TL;DR使用 k 近邻(kNN)组件提高语言模型性能,进而结合 BERT 与传统信息检索(IR)和大型文本嵌入数据存储的 kNN 搜索提高开放域问答的召回率。实验结果证明,BERT-kNN 在题型填空问答方面比 BERT 表现更优,尤其在处理罕见事实和未在 BERT 训练集中涉及的事实方面表现突出。