BriefGPT.xyz
Feb, 2020
使用深度确定性动态梯度估计 Q(s,s')
Estimating Q(s,s') with Deep Deterministic Dynamics Gradients
HTML
PDF
Ashley D. Edwards, Himanshu Sahni, Rosanne Liu, Jane Hung, Ankit Jain...
TL;DR
本文提出了一种新型的价值函数Q(s, s'),用于表达从状态s转移到邻近状态s'并在此之后最优行动的效用,通过构建能够最大化Q值的前向动力学模型,得出最优策略并实现离线学习。该方法在价值函数转移、冗余行动空间内学习和在末优策略或完全随机策略下离线学习等方面具有优势。
Abstract
In this paper, we introduce a novel form of
value function
, $Q(s, s')$, that expresses the
utility
of transitioning from a state $s$ to a neighboring state $s'$ and then acting optimally thereafter. In order to d
→