BriefGPT.xyz
Ask
alpha
关键词
mix thoughts distillation
搜索结果 - 1
通过混合思维提炼,提高小型语言模型的数学推理能力
通过将大型语言模型的数学推理能力压缩到亿级参数的小型语言模型中,不影响性能,以实现先进的大型语言模型民主化。我们提出了 EoTD(Equation-of-Thought Distillation)技术,将推理过程封装到基于方程的表示中,构建
→
PDF
5 months ago
Prev
Next