BriefGPT.xyz
大模型
Ask
alpha
关键词
cot
搜索结果 - 4
Olapa-MCoT:提升 LLMs 的中文数学推理能力
这篇论文提出了基于 llama2-13B PLM 的深度语言模型 Olapa-MCoT,通过使用 SimRRHF 算法和错误数据再学习,主要优化了 Olapa-MCoT 的中文数学推理能力,实验结果表明中文数学推理准确率高达 50%,相比于
→
PDF
6 months ago
通过对齐使大型语言模型成为更好的推理者
Reasoning is essential for large language models, and the Alignment Fine-Tuning (AFT) paradigm addresses the Assessment
→
PDF
10 months ago
思维之阶梯:利用知识提升立场检测
通过引入 Ladder-of-Thought (LoT) 来改进 ChatGPT 和 CoT 模型,在提高中间推理过程和使用外部知识的基础上,在立场检测任务中实现了 16% 的改进。
PDF
10 months ago
使用标记数据的思维链自动提示增强与选择
本文提出了一种使用 Automate-CoT 自动扩展和选择合理链来推动 CoT 的方法,该方法通过构建候选池从标签生成的机器理性链中选择多个理性链的最佳组合,以推进大型语言模型的推理能力,并在算术推理、常识推理、符号推理和非推理任务中取得
→
PDF
a year ago
Prev
Next