Dec, 2023
Olapa-MCoT:提升 LLMs 的中文数学推理能力
Olapa-MCoT: Enhancing the Chinese Mathematical Reasoning Capability of LLMs
Shaojie Zhu, Zhaobin Wang, Chengxiang Zhuo, Hui Lu, Bo Hu...
TL;DR这篇论文提出了基于 llama2-13B PLM 的深度语言模型 Olapa-MCoT,通过使用 SimRRHF 算法和错误数据再学习,主要优化了 Olapa-MCoT 的中文数学推理能力,实验结果表明中文数学推理准确率高达 50%,相比于 llama2-13B 提升了 36%;此外,英语推理能力的准确率也提高了近 4%。