ACLJul, 2021

MWP-BERT: 数理增强的数学应用问题预训练

TL;DR本文介绍了一种通过上下文表示学习的方式,将数值属性注入到符号占位符中的方法,以解决数值表示问题。我们将此想法引入到预训练语言模型(PLM)技术中,构建了一种有效的上下文数值表示 PLM(MWP-BERT)。我们在英文和中文基准上证明了 MWP-BERT 在 MWP 求解和几个 MWP 特定理解任务上的有效性。