Transformer 深度学习任务的应用综述
本次研究对变压器模型在计算机视觉方面的应用进行了全面的回顾,包括自我关注、大规模预训练和双向编码等基础概念及其在图像分类、视频处理等多个领域的广泛应用。研究比较了不同技术在架构设计及实验价值方面的优缺点,并提出了未来的研究方向。
Jan, 2021
本文回顾了将 Transformer 应用于计算机视觉任务中的视觉 Transformer 模型,并分为不同任务类别,分析它们的优点和缺点,同时也介绍了将 Transformer 应用到实际设备应用的有效方法。最后,本文还探讨了计算机视觉中的自注意机制以及视觉 Transformer 面临的挑战及进一步研究方向。
Dec, 2020
本文系统地回顾了 Transformer 在时间序列建模中的运用,总结了其优点、局限性以及在网络结构、应用方面的适应性和修改,并对常见的时间序列任务进行了分类,包括预测、异常检测和分类。通过实证分析,研究了 Transformer 在时间序列中的表现,并提出了未来研究方向。这是第一篇全面系统地总结 Transformer 近期在时间序列数据建模领域进展的论文。
Feb, 2022
本文综述了 transformers 在语音技术各领域中的应用,旨在为研究者提供宝贵的资源,提供解决 transformers 在语音处理中面临的挑战的可行方法。
Mar, 2023
本文综述了超过一百种不同的视觉 Transformer 根据三个基本的计算机视觉任务和不同的数据流类型,提出了一个分类法来组织代表性的方法,评估和比较所有这些现有的视觉 Transformers 在不同的配置下,并揭示一系列的重要但未开发的方面,最后指出了三个有前途的研究方向。
Nov, 2021
本质量分析了 Transformer 神经网络架构在医疗保健中的应用,以及在医学图像、电子健康记录和生理信号等多种形式的数据分析方面所发挥的积极作用,并概述了一些使用该架构的优点和局限性,包括计算成本、模型可解释性、公平性、与人类价值观的一致性、伦理和环境影响。
Jun, 2023
本文介绍了 transformers 在 reinforcement learning 中的应用,包括表示学习、转移和奖励函数建模,策略优化等多个方面,并讨论了可视化技术和高效训练策略的应用,以提高 transformers 的解释性和效率。同时,讨论了 transformers 在不同领域的应用以及在 reinforcement learning 中的局限性和潜在突破。
Jul, 2023
介绍了 Transformer 基本概念,描述了标准 Transformer 架构,包括一系列模型细化和常见应用,主要关注有助于理解 Transformer 及其变体的概念和对该领域产生影响的关键思想,从而揭示了这些模型的优势和局限性。
Nov, 2023
基于 Transformer 架构的大型语言模型(LLMs)的近期进展在自然语言处理(NLP)应用领域展示了显著的拓宽范围,超越了其在聊天机器人技术中的初始应用。本文探究了这些模型的多方面应用,重点关注 GPT 系列,对人工智能(AI)驱动工具在改变编码、问题解决等传统任务上起到的转变性影响进行了研究,同时开辟了在不同行业中进行研究和开发的新方向。从代码解释和图像描述到便于构建交互式系统和推动计算领域的发展,Transformer 模型展示了深度学习、数据分析和神经网络设计相结合的协同作用。本调查报告深入了解了 Transformer 模型的最新研究,突出了其多功能性和在实际应用领域中转型的潜力,从而为读者提供了对 Transformer-based LLMs 在当前和未来实际应用领域的全面理解。
Mar, 2024