Apr, 2024
MiniCPM: 小型语言模型的潜力与可伸缩的训练策略揭示
MiniCPM: Unveiling the Potential of Small Language Models with Scalable Training Strategies
Shengding Hu, Yuge Tu, Xu Han, Chaoqun He, Ganqu Cui...
TL;DR通过开展大量模型和数据维度的可扩展研究,我们引入了 MiniCPM,这是一种高效资源的替代模型,旨在探索小型语言模型在未来大型语言模型研究中的潜力,并通过模型收敛和数据适应来优化比例关系。