May, 2023
为比较推理预训练语言模型
Pre-training Language Models for Comparative Reasoning
Mengxia Yu, Zhihan Zhang, Wenhao Yu, Meng Jiang
TL;DR本文提出了一种新的预训练语言模型框架,通过增强其对文本的比较推理能力来提高 NLP 任务的性能,该框架通过收集结构化和非结构化数据设计了三个新的预训练任务,并在比较问答、问句生成和摘要等下游任务中进行了评估,结果显示,我们的预训练框架显著提高了语言模型的比较推理能力,特别是在低资源条件下。此外,本工作还发布了第一个针对文本比较推理的综合基准。