AAAIJan, 2022

用填空翻译和一致性优化实现零样本通识常识问答

TL;DR本研究针对常识问题回答(Commonsense question answering)的挑战,提出了利用预训练语言模型中的 “隐含知识”,通过四种翻译方法,探索如何更好地调动语言模型中的常识知识。研究通过在零样本情况下对三个 CQA 数据集进行实验,证明了该方法对增强模型的性能十分有效,并且结合外部知识库进一步提高了模型性能。同时,文章还分析了各种填空翻译方法的不同特点和优缺点。