Oct, 2023
脱机强化学习的悲观非线性最小二乘值迭代
Pessimistic Nonlinear Least-Squares Value Iteration for Offline
Reinforcement Learning
TL;DR提出了一种用于非线性函数逼近的离线强化学习方法——悲观非线性最小二乘值迭代(PNLSVI),它包括方差加权回归、方差估计子程序和基于悲观值迭代的规划阶段。该方法的遗憾界与函数类的复杂性紧密相关,并在针对线性函数逼近的情况下实现极小化的最优实例相关遗憾。在前期研究基础上,扩展到更一般的框架。