高效 Transformer:综述
本文综述了各种 X-formers,包括 Transformer 的变体,提出了一个新的分类法并从结构修改、预训练和应用三个方面介绍了各种 X-formers,并提出了未来研究的一些潜在方向。
Jun, 2021
该论文通过对 NLP 的演变及其应用的准确性和效率的评论,以及提出和硬件考虑下对基于 transformer 模型的效率进行改进的研究贡献的调查,旨在确定当前 NLP 技术对可持续社会的贡献,并为未来研究奠定基础。
May, 2024
本文介绍了两种技术以提高 Transformer 的效率:使用局部敏感哈希替换点积注意力和使用可逆残差层代替标准残差层,减少存储激活的次数。改进后的模型 Reformer 在处理长序列时比 Transformer 更加高效。
Jan, 2020
本文通过详细调查从 2017 至 2022 年间提出的 Transformer 模型,分析了其在自然语言处理、计算机视觉、多模态、音频和语音处理以及信号处理等领域中的应用及其对应的任务,并提供了一种分类法,以期为进一步研究及其未来的应用提供参考。
Jun, 2023
比较研究了多种 Transformer 模型的性能,发现长序列的改进版本在内容选择和查询引导解码方面有优势,但在处理远距离的信息和近似误差上有欠缺的地方。
Feb, 2022
介绍了 Transformer 基本概念,描述了标准 Transformer 架构,包括一系列模型细化和常见应用,主要关注有助于理解 Transformer 及其变体的概念和对该领域产生影响的关键思想,从而揭示了这些模型的优势和局限性。
Nov, 2023
本文综述了 transformers 在语音技术各领域中的应用,旨在为研究者提供宝贵的资源,提供解决 transformers 在语音处理中面临的挑战的可行方法。
Mar, 2023
该论文综述了基于 Transformer 的序列模型在解决序列决策问题、加强学习等方面的应用,分类讨论了不同的应用方式,并提出了未来研究的潜在方向,包括理论基础、网络架构、算法和高效训练系统。
Jun, 2023
本研究提出了 FastFormers 来加快基于 Transformer 模型的 NLU 任务的推理效率,可以通过运用知识蒸馏、结构剪枝和数值优化等方法,将预处理模型在 CPU 和 GPU 上的速度提高至 9.8-233.9 倍,节省成本的同时降低能耗。
Oct, 2020