BriefGPT.xyz
Ask
alpha
关键词
long-context language understanding
搜索结果 - 1
扩展 Llama-3 上下文十倍于一夜之间
通过 QLoRA 的微调,我们将 LLama-3-8B-Instruct 的上下文长度从 8K 扩展到 80K。整个训练周期非常高效,在一台 8xA800(80G)GPU 机器上仅需 8 小时。生成的模型在广泛的评估任务中表现出优越性能,如
→
PDF
2 months ago
Prev
Next