Jan, 2025
实用数学文字问题解决的多样性增强知识蒸馏模型
A Diversity-Enhanced Knowledge Distillation Model for Practical Math
Word Problem Solving
TL;DR本研究针对数学文字问题解决中的多样性不足问题,提出了一种创新的多样性增强知识蒸馏(DivKD)模型。该模型通过自适应多样性蒸馏方法,使学生模型能够选择性地从教师模型转移高质量知识,从而生成更为多样化的数学方程。实验结果表明,该方法在多个基准数据集上均优于现有强基线,表现出更高的解答准确率和实用效率。