ACLJul, 2021
MWP-BERT: 数理增强的数学应用问题预训练
MWP-BERT: Numeracy-Augmented Pre-training for Math Word Problem Solving
Zhenwen Liang, Jipeng Zhang, Lei Wang, Wei Qin, Yunshi Lan...
TL;DR本文介绍了一种通过上下文表示学习的方式,将数值属性注入到符号占位符中的方法,以解决数值表示问题。我们将此想法引入到预训练语言模型(PLM)技术中,构建了一种有效的上下文数值表示 PLM(MWP-BERT)。我们在英文和中文基准上证明了 MWP-BERT 在 MWP 求解和几个 MWP 特定理解任务上的有效性。