语言模型效率研究的定量综述
该论文通过对 NLP 的演变及其应用的准确性和效率的评论,以及提出和硬件考虑下对基于 transformer 模型的效率进行改进的研究贡献的调查,旨在确定当前 NLP 技术对可持续社会的贡献,并为未来研究奠定基础。
May, 2024
大型语言模型在自然语言理解、语言生成和复杂推理等重要任务中展示出了卓越的能力,并有潜力对我们的社会产生重大影响。然而,这些能力所需的资源相当可观,强调了开发有效的技术来解决其效率挑战的迫切需求。本调研以系统和全面的方式概述了高效大型语言模型的研究成果,从模型中心、数据中心和框架中心的角度,将文献进行了分类整理。我们还创建了一个 GitHub 存储库,在这个存储库中收集了本调研中涉及的论文,并将积极维护并整合新的研究成果。希望本调研能为研究人员和从业者提供有价值的资源,帮助他们系统地了解高效大型语言模型的研究进展,并激励他们为这个重要而激动人心的领域做出贡献。
Dec, 2023
综述了旨在改善大型语言模型 (Large Language Models) 效率的算法进展,包括扩展法则、数据利用、架构创新、训练和调优策略以及推理技术等多个方面,旨在为研究人员和从业者提供宝贵的资源,并为未来的创新奠定基础。
Dec, 2023
通过理论分析大规模语言模型的内部结构和操作机制,探讨 Transformer 及其派生体结构如何在捕获长期依赖时限制计算效率,深入挖掘训练阶段的效率瓶颈,并详细评估自适应优化算法(如 AdamW)、大规模并行计算技术和混合精度训练策略对加速收敛和减少内存占用的贡献,同时系统地回顾了模型压缩技术的最新进展,侧重于量化、修剪和知识蒸馏等策略,通过比较这些技术的理论框架及其在不同应用场景中的效果,展示了它们在显著减小模型规模和推理延迟、同时保持模型预测准确性方面的能力,并且对当前效率优化方法的局限性(如过拟合风险、压缩后性能损失控制以及算法通用性问题)进行了批判性审查,提出了未来研究的一些展望,最终为理解大规模语言模型的效率优化提供了全面的理论框架。
May, 2024
利用 Transformer 架构的大型语言模型在教育领域引起了广泛关注,主要应用包括生成和评估教育材料、自动问题生成等,其中 GTP-3 和 BERT 是最受欢迎的模型。
May, 2024
在这份调研报告中,我们综述了当前高效多模态大语言模型(MLLMs)的研究状况,包括代表性的高效 MLLM 的时间线、高效结构和策略的研究现状以及应用领域。最后,我们讨论了目前高效 MLLM 研究的限制和有前途的未来方向。
May, 2024
基于线性状态空间模型的循环模型在语言建模方面表现出色,与变压器竞争力强,但对此类模型的原理能力了解甚少,因此我们提出了一项理论研究,比较了这种模型与变压器和传统循环神经网络的能力,发现它们有重叠但有区别的优势。
May, 2024
基于 Transformer 架构的大型语言模型(LLMs)的近期进展在自然语言处理(NLP)应用领域展示了显著的拓宽范围,超越了其在聊天机器人技术中的初始应用。本文探究了这些模型的多方面应用,重点关注 GPT 系列,对人工智能(AI)驱动工具在改变编码、问题解决等传统任务上起到的转变性影响进行了研究,同时开辟了在不同行业中进行研究和开发的新方向。从代码解释和图像描述到便于构建交互式系统和推动计算领域的发展,Transformer 模型展示了深度学习、数据分析和神经网络设计相结合的协同作用。本调查报告深入了解了 Transformer 模型的最新研究,突出了其多功能性和在实际应用领域中转型的潜力,从而为读者提供了对 Transformer-based LLMs 在当前和未来实际应用领域的全面理解。
Mar, 2024
通过简洁明了的数学框架和清晰的图示,详细解释了神经语言模型的主要类型,包括 BERT 和 GPT2,同时讨论了在计算机视觉和时间序列应用中的转化及与自然语言处理的对比。
Jan, 2024