Jun, 2022
MMTM:用于数学应用题的多任务多解码器变换器
MMTM: Multi-Tasking Multi-Decoder Transformer for Math Word Problems
Keyur Faldu, Amit Sheth, Prashant Kikani, Darshan Patel
TL;DR提出一种新的神经网络模型 MMTM,利用多任务和多解码器,在预训练期间创建变体任务,使用特定任务的解码器并使用 Transformer 架构。该模型在对抗性挑战数据集 SVAMP 上相对于 Seq2Seq,GTS 和 Graph2Tree 等模型有 19.4%的相对性能提高来取得更好的数学推理能力和普适性。