MobiLlama:面向准确轻量级全透明的 GPT
通过设计深而瘦的体系结构以及嵌入共享和分组查询注意机制,我们提出了一种名为 MobileLLM 的强基线网络,它在先前的 125M/350M 最先进模型上分别获得 2.7%/4.3% 的准确度提升。此外,我们还提出了一种即时的分块权重共享方法,不增加模型大小且仅有微小的延迟开销。MobileLLM-LS 模型进一步提升了 0.7%/0.8% 的准确度,相较于 MobileLLM 125M/350M。此外,MobileLLM 模型系列在聊天基准测试中相较于之前的次十亿模型有显著提升,并在 API 调用任务中表现出接近 LLaMA-v2 7B 的正确性,突显了小型模型在常见设备使用情景中的能力。
Feb, 2024
AI 领域近年来取得了显著的进展,尤其是基于变压器架构的强大大型语言模型(LLMs)的出现。本文介绍了一种创新的 LLM 推理方法,展望了在无需网络连接的情况下,拥有数十亿参数的 LLMs 可以直接在移动设备上执行的未来。该应用程序不仅作为一个通用助手,而且通过原生代码和模型量化技术的结合,还可以实现与文本到动作功能的无缝移动交互。文章还提供了关于本地 LLM 推理的训练流程、实现细节、测试结果和未来方向的见解。这一突破性技术为用户提供了强大的人工智能能力,同时保护了用户的隐私并消除了延迟问题。
Sep, 2023
为了解决大型语言模型在破解攻击中的脆弱性,提出了 SmoothLLM 算法,通过对输入的随机扰动和聚合进行检测,降低了攻击成功率,并在攻击缓解上提供了可证明的保证。
Oct, 2023
将大型语言模型部署在移动设备上,使得所有自然语言处理的能力可在设备上使用;LLM 的重要用例是问答系统,可以提供准确和上下文相关的回答给用户的各种查询,并通过将 Orca-Mini-3B 模型的 6 位量化版本应用在 Galaxy S21 智能手机上,实验结果表明 LLM 推理在交互速度下进行,并能给出高质量的与政治、地理或历史相关的用户查询的答案。
Apr, 2024
通过引入一系列研究工作,本文介绍了超小型语言模型 (STLMs) 的创新技术和高性能表现,包括字节级的分词和汇聚机制、参数联系以及高效的训练策略,以实现与传统模型相比参数数量减少了 90% 至 95% 的竞争性表现,未来的研究将探索包括无分词模型、基于自我博弈的训练以及替代训练目标等多个子问题,旨在使高性能语言模型在更广泛的应用领域中更具可访问性和实用性。
May, 2024
为了在移动设备上高效部署大型语言模型,我们提出了四种优化技术:基于符号表达式的动态模型推断,操作符优化和执行优先级设置,FP4 量化方法以减少反量化开销,以及基于子张量的技术以消除 LLM 推断后的缓存拷贝需求,并利用这些方法实现了移动推断引擎 Transformer-Lite。与 CPU 和 GPU 的其他引擎相比,我们的引擎在填充速度上实现了超过 10 倍的加速,并在解码速度上实现了 2~3 倍的加速。
Mar, 2024
智能缩放模型在降低自然语言处理任务的推理成本方面具有显著的经济效益,通过在多个模型之间进行权衡,可以实现高质量和低成本的结果。
Mar, 2024
本研究探讨在各种苹果 iPhone 型号上进行设备内大型语言模型 (LLM) 推理的可行性和性能。通过对运行在有限资源设备上的数十亿参数的 LLM 的现有文献进行利用,我们的研究考察了高性能 LLM 在不同智能手机世代上的热效应和交互速度。通过提供实际性能结果,我们提供了关于设备内推理能力的见解。
Dec, 2023
在先进的多模式学习时代,本文介绍了 TinyGPT-V 这一低计算资源需求的多模式大型语言模型,通过小型骨干网络实现了高效的语言 - 视觉交互,为设计成本效益高、高性能的多模式大型语言模型的进一步发展提供了基础。
Dec, 2023