Aug, 2023

一种智能无服务器函数的深度递归强化学习方法

TL;DR通过将模型无关的循环强化学习(Recurrent RL)代理与最先进的 PPO 算法相结合,我们研究了用于函数自动缩放的模型无关的 Recurrent RL 代理,并将其与基于阈值的函数自动缩放进行了比较,发现循环策略能够捕捉环境参数并在函数自动缩放方面显示出有希望的结果。除此之外,我们将基于 PPO 的自动缩放代理与商业使用的基于阈值的函数自动缩放进行了比较,并认为基于 LSTM 的自动缩放代理能够提高吞吐量 18%,函数执行速度 13%,并支持多出 8.4%的函数实例。