Dec, 2023

Olapa-MCoT:提升 LLMs 的中文数学推理能力

TL;DR这篇论文提出了基于 llama2-13B PLM 的深度语言模型 Olapa-MCoT,通过使用 SimRRHF 算法和错误数据再学习,主要优化了 Olapa-MCoT 的中文数学推理能力,实验结果表明中文数学推理准确率高达 50%,相比于 llama2-13B 提升了 36%;此外,英语推理能力的准确率也提高了近 4%。