BriefGPT.xyz
Ask
alpha
关键词
deepseek-v2
搜索结果 - 1
DeepSeek-V2: 一种强大、经济高效的专家混合语言模型
DeepSeek-V2 是一种经济高效的 Mixture-of-Experts(MoE)语言模型,具有 236B 总参数,支持 128K tokens 的上下文长度。通过创新的架构,如 Multi-head Latent Attention
→
PDF
2 months ago
Prev
Next