强化学习中 Transformer 的调研
本文介绍了 transformers 在 reinforcement learning 中的应用,包括表示学习、转移和奖励函数建模,策略优化等多个方面,并讨论了可视化技术和高效训练策略的应用,以提高 transformers 的解释性和效率。同时,讨论了 transformers 在不同领域的应用以及在 reinforcement learning 中的局限性和潜在突破。
Jul, 2023
本文提出了一种基于 Transformer 的 Deep Q-Learning 方法,该方法在稳定性和 Atari 基准方面表现良好,并为探究 Transformer 与强化学习之间的关系提供了额外见解。
Oct, 2020
在自然语言处理领域得到了突破性的成功后,本文提出一种修改后的” 转换器” 架构,即门控 Transformer-XL (GTrXL),在部分可观察的强化学习 RL 领域中实现了与竞争性 LSTM 基线相媲美的稳定性和性能,超过了 LSTM 并在多任务 DMLab-30 基准套件上取得了最新的成果。
Oct, 2019
本文通过详细调查从 2017 至 2022 年间提出的 Transformer 模型,分析了其在自然语言处理、计算机视觉、多模态、音频和语音处理以及信号处理等领域中的应用及其对应的任务,并提供了一种分类法,以期为进一步研究及其未来的应用提供参考。
Jun, 2023
本文介绍了 TrMRL,这是一种运用 Transformer 架构的基于元强化学习的代理(Meta-Reinforcement Learning Algorithm),它结合了最近的工作内存以递归方式构建情境记忆,并利用 self-attention 机制计算和提供有意义的特征以执行最佳任务。研究表明,在高维连续控制环境下,TrMRL 相对于基线模型表现出了相当或优异的收敛性能、采样效率和超出分布范围的概况。
Jun, 2022
介绍了 Transformer 基本概念,描述了标准 Transformer 架构,包括一系列模型细化和常见应用,主要关注有助于理解 Transformer 及其变体的概念和对该领域产生影响的关键思想,从而揭示了这些模型的优势和局限性。
Nov, 2023
该论文通过对 NLP 的演变及其应用的准确性和效率的评论,以及提出和硬件考虑下对基于 transformer 模型的效率进行改进的研究贡献的调查,旨在确定当前 NLP 技术对可持续社会的贡献,并为未来研究奠定基础。
May, 2024
该论文综述了基于 Transformer 的序列模型在解决序列决策问题、加强学习等方面的应用,分类讨论了不同的应用方式,并提出了未来研究的潜在方向,包括理论基础、网络架构、算法和高效训练系统。
Jun, 2023
本文基于序列建模思路,提出一种将强化学习抽象为序列建模问题的框架,使用 Transformer 架构和相关的语言建模技术(如 GPT-x 和 BERT)来解决增强学习任务,其中提出的 Decision Transformer 模型可以通过自回归模型来输出未来的动作并获得预期回报,其性能在 Atari、OpenAI Gym 和 Key-to-Door 等实验中达到了业界领先水平。
Jun, 2021