BriefGPT.xyz
大模型
Ask
alpha
关键词
mixtral 8x7b
搜索结果 - 2
使用 LLMs 生成具有不同可读性水平的教育材料
本研究介绍了分级文本生成任务,旨在将教育材料重写为特定可读性水平同时保持意义不变。通过零 - shot 和少量样本提示,我们评估了 GPT-3.5、LLaMA-2 70B 和 Mixtral 8x7B 在不同可读性水平上生成内容的能力。对
→
PDF
15 days ago
专家混合模型
引入了 Mixtral 8x7B,一种稀疏的专家混合(SMoE)语言模型,采用了与 Mistral 7B 相同的架构,每个层由 8 个前馈块(即专家)组成,并通过路由网络选择两个专家处理当前状态和组合它们的输出,最终得到使用 13B 活跃参
→
PDF
6 months ago
Prev
Next