该论文通过对 NLP 的演变及其应用的准确性和效率的评论,以及提出和硬件考虑下对基于 transformer 模型的效率进行改进的研究贡献的调查,旨在确定当前 NLP 技术对可持续社会的贡献,并为未来研究奠定基础。
May, 2024
基于 Transformer 架构的大型语言模型(LLMs)的近期进展在自然语言处理(NLP)应用领域展示了显著的拓宽范围,超越了其在聊天机器人技术中的初始应用。本文探究了这些模型的多方面应用,重点关注 GPT 系列,对人工智能(AI)驱动工具在改变编码、问题解决等传统任务上起到的转变性影响进行了研究,同时开辟了在不同行业中进行研究和开发的新方向。从代码解释和图像描述到便于构建交互式系统和推动计算领域的发展,Transformer 模型展示了深度学习、数据分析和神经网络设计相结合的协同作用。本调查报告深入了解了 Transformer 模型的最新研究,突出了其多功能性和在实际应用领域中转型的潜力,从而为读者提供了对 Transformer-based LLMs 在当前和未来实际应用领域的全面理解。
Mar, 2024
通过简洁明了的数学框架和清晰的图示,详细解释了神经语言模型的主要类型,包括 BERT 和 GPT2,同时讨论了在计算机视觉和时间序列应用中的转化及与自然语言处理的对比。
Jan, 2024
本文将准确而简洁介绍变形器体系结构的数学原理,以及设计决策背后的洞察。
Apr, 2023
本文通过详细调查从 2017 至 2022 年间提出的 Transformer 模型,分析了其在自然语言处理、计算机视觉、多模态、音频和语音处理以及信号处理等领域中的应用及其对应的任务,并提供了一种分类法,以期为进一步研究及其未来的应用提供参考。
Jun, 2023
本文综述了 transformers 在语音技术各领域中的应用,旨在为研究者提供宝贵的资源,提供解决 transformers 在语音处理中面临的挑战的可行方法。
Mar, 2023
本文追溯了神经网络在自然语言理解任务中的应用历史,指出了自然语言的特性对神经网络架构的发展的关键贡献。文章着重强调了变量绑定及其在基于注意力模型中的实例化的重要性,并认为 Transformer 不是序列模型而是一种诱导结构模型。这一视角导致了对深度学习架构在自然语言理解方面面临的挑战的预测。
May, 2020
本文系统地回顾了 Transformer 在时间序列建模中的运用,总结了其优点、局限性以及在网络结构、应用方面的适应性和修改,并对常见的时间序列任务进行了分类,包括预测、异常检测和分类。通过实证分析,研究了 Transformer 在时间序列中的表现,并提出了未来研究方向。这是第一篇全面系统地总结 Transformer 近期在时间序列数据建模领域进展的论文。
Feb, 2022
本文综述了生成式预训练转换模型,包括它的架构、工作流程、训练程序、相关技术以及对各种应用的影响,并探讨了潜在的挑战和解决方案。
May, 2023
本研究总结了多个领域的最新端到端基于 Transformer 模型的 X-former 模型,强调了计算和内存效率
Sep, 2020