BriefGPT.xyz
Ask
alpha
关键词
open foundation models
搜索结果 - 3
JetMoE:以 0.1M 美元达到 Llama2 性能
JetMoE-8B 是一种高性价比、透明和学术友好的基于 Sparsely-gated Mixture-of-Experts (SMoE) 架构的大型语言模型,仅需要不足 10 万美元的培训成本,拥有 8B 个参数,使用公共数据集和训练代码
→
PDF
3 months ago
开放基础模型的社会影响
开放基础模型具有创新、竞争、决策权分配和透明度等显著优势,但当前的研究还不足以有效地表征相对于现有技术的边际风险,因此需要进一步的研究来实证验证其理论上的利益和风险。
PDF
4 months ago
OWSM v3.1:基于 E-Branchformer 的更好更快的开放式耳语口语模型
利用 E-Branchformer 提高 OWSM v3.1 模型的性能和效率,尤其在推理速度上具有 25% 的提升,并推出具有 1B 规模的最大 E-Branchformer 语音模型。
PDF
5 months ago
Prev
Next