神经语言模型解剖
基于 Transformer 架构的大型语言模型(LLMs)的近期进展在自然语言处理(NLP)应用领域展示了显著的拓宽范围,超越了其在聊天机器人技术中的初始应用。本文探究了这些模型的多方面应用,重点关注 GPT 系列,对人工智能(AI)驱动工具在改变编码、问题解决等传统任务上起到的转变性影响进行了研究,同时开辟了在不同行业中进行研究和开发的新方向。从代码解释和图像描述到便于构建交互式系统和推动计算领域的发展,Transformer 模型展示了深度学习、数据分析和神经网络设计相结合的协同作用。本调查报告深入了解了 Transformer 模型的最新研究,突出了其多功能性和在实际应用领域中转型的潜力,从而为读者提供了对 Transformer-based LLMs 在当前和未来实际应用领域的全面理解。
Mar, 2024
利用 Transformer 架构的大型语言模型在教育领域引起了广泛关注,主要应用包括生成和评估教育材料、自动问题生成等,其中 GTP-3 和 BERT 是最受欢迎的模型。
May, 2024
介绍了 Transformer 基本概念,描述了标准 Transformer 架构,包括一系列模型细化和常见应用,主要关注有助于理解 Transformer 及其变体的概念和对该领域产生影响的关键思想,从而揭示了这些模型的优势和局限性。
Nov, 2023
我们提出了 InstructGLM(指导调整的图语言模型),基于自然语言说明系统地设计高度可扩展的提示,使用自然语言描述图的几何结构和节点特征,通过指导调优语言模型以一种生成方式在图上执行学习和推理,超过了所有竞争的 GNN 基准数据集,证明了我们方法的有效性,并为将生成语言模型替代 GNN 作为图机器学习的基础模型提供了启示。
Aug, 2023
本文介绍了使用预训练和微调、提示或文本生成方法解决 NLP 任务的大型预训练基于 transformer 的语言模型,以及使用预训练语言模型生成数据进行训练或其他目的的方法,并讨论未来研究的限制和建议方向。
Nov, 2021
这篇文章给出了 TLM 在法律领域中基于 AI 的问题和任务的系统概述,旨在突出此领域的研究进展,从而理解 Transformer 模型在支持法律流程中的作用、当前的限制和进一步的研究发展机会。
Aug, 2023
这项开创性的研究探讨了大型语言模型(LLMs)如生成式预训练变换器(GPT)和双向编码器表示来自变换器(BERT)在技术、金融、医疗保健、教育等各个领域的广泛应用。尽管它们在自然语言处理(NLP)方面已经展现出卓越的能力,但这些 LLMs 在健身、整体福祉、城市规划、气候建模以及灾害管理等领域尚未得到系统性的研究,本综述除了提供对 LLMs 在不同领域的广泛应用进行全面分析外,还揭示了 LLMs 潜力尚未被利用的研究空白和领域。这项研究发现了 LLMs 在健身福祉、城市规划、气候建模和灾害响应等领域留下印记的创新方式,可以激发未来在这些领域的研究和应用。
Feb, 2024
本篇论文旨在探讨比较语言学理论和神经语言模型之间的相关性,其中使用了语言模型来衡量语义距离并研究了其对于语言学的意义、提出了衡量语言模型中的意外性的方法以及证明了该方法在探究语言运用的知识结构方面的有效性。
Jul, 2022
基于转换器架构的大型语言模型(LLMs)在基因组学中扮演了转变性的角色。本文旨在成为对基因组数据感兴趣的计算生物学家和计算机科学家的指南,同时也希望为生物学家们介绍和讨论我们将来如何分析基因组数据的基本转变。
Nov, 2023