Tele-FLM 技术报告
通过生长策略显著降低大语言模型的训练成本,并采用系统化评估范式,对大语言模型进行智商评估,以解决高计算成本和公正客观评估的挑战。
Sep, 2023
通过联邦学习的方式,利用分布式私有数据进行协作和隐私保护的大型语言模型(LLM)培训,相较于传统的本地培训方式,取得了明显的性能提升。
Feb, 2024
提出了联邦式大规模语言模型(LLM)的概念,并讨论了其三个关键组成部分:联邦式 LLM 预训练、联邦式 LLM 微调和联邦式 LLM 提示工程。还探讨了联邦学习和大规模语言模型整合所带来的新挑战,并分析了现有解决方案和潜在障碍。
Jul, 2023
PolyLM 是一个多语言大型语言模型,经过课程学习和自我指导方法的预训练,可以在多种不同语言的多语言理解、问答、生成和翻译任务上获得比其他已有模型更好的表现。
Jul, 2023
MindLLM 是一系列双语轻量级大型语言模型,通过从头开始训练模型以减轻培训和部署大型语言模型的负担并解决资源不足问题。该论文提供了大模型开发过程中的经验,并介绍了适用于较小模型的创新指令调整框架,同时探索了 MindLLM 在法律和金融等特定垂直领域的应用。
Oct, 2023
Baichuan 2 是一系列大规模多语言语言模型,包含 70 亿和 130 亿参数,从头开始训练,共有 2.6 万亿个标记。Baichuan 2 在公共基准测试中表现出与其他类似规模的开源模型相匹配或超越的性能,如 MMLU、CMMLU、GSM8K 和 HumanEval,此外,Baichuan 2 在医学和法律等垂直领域表现出色。我们将发布所有的预训练模型检查点,以便研究界更好地理解 Baichuan 2 的训练动态。
Sep, 2023
在自然语言处理领域中,本研究通过对四个知名的大型语言模型(Llama-2,Falcon,Mistral 和 Zephyr)进行全面的零样本评估,与最先进的微调模型进行性能比较,评估了大型语言模型在电信领域内的知识和理解能力,并发现零样本的大型语言模型能够在这一领域内达到与当前最先进微调模型相当的性能水平,突显了大型语言模型作为理解这一领域不足的各个方面的有价值资源的潜力。
Feb, 2024
通过硬件为中心的方法,本研究探讨了如何将大型语言模型 (LLMs) 应用于现代边缘计算系统,并使用联邦学习 (FL) 对 FLAN-T5 模型家族进行微调,以进行文本摘要任务。通过与数据中心 GPU 的比较,我们评估了边缘计算系统的当前能力以及它们在 LLM FL 工作负载方面的潜力,并展示了在边缘端实现更大计算效率的潜力与下一步的发展方向。
Oct, 2023
该研究聚焦于用于芬兰语的大型语言模型(LLMs)的创建和评估,通过从各种来源收集数据并进行预训练,综合其他语言模型的方法,在芬兰语领域取得了显著进展,并对模型的质量进行了评估,包括毒性和偏见。
Nov, 2023
InternLM2 是一种开源的大型语言模型,通过创新的预训练和优化技术,在多个维度和 30 个基准测试中优于之前的模型,并在长文本建模和开放主观评估方面取得突出表现。该模型通过精心设计的预训练过程,使用了包括文本、代码和长文本数据在内的多种数据类型,并具备捕捉长期依赖、高效处理任务的能力。此外,通过释放不同训练阶段和模型大小的 InternLM2 模型,为社区提供了对模型演进的深入理解。
Mar, 2024