探讨了具有部分状态信息的分布式智能体的规划问题,介绍了对 MDP 和 POMDP 模型的推广,研究表明分散控制与集中控制在马尔可夫过程中的根本差异,相关问题不适合使用多项式时间算法来求解,需要使用双指数时间算法求解。
Jan, 2013
介绍了一种新的方法,确切高效地解决了具有稀疏奖励来源的确定性连续 MDP 问题,可以提高在机器人和无人系统等领域的应用价值,减少计算复杂度。
May, 2018
本文研究了面临参数不确定性的大规模马尔可夫决策过程(MDP),并基于鲁棒 MDP 范式,应用增强学习方法解决了规模巨大且无法使用动态规划技术的实际问题解决方法。该方法在特定技术条件下被证明可以成功,通过对期权定价问题的模拟的证明其有效性,是首次尝试扩大鲁棒 MDPs 范式的尝试。
Jun, 2013
本研究提出了一种基于代数决策图来表示价值函数和策略的 Markov 决策过程的值迭代算法,并将其应用于波西网络和 ADDs 表示的大规模 MDPs 中,相较于树形结构表示方式大幅降低了节点数量。
本文提出了一种针对状态空间较大的 MDP 问题进行优化的方法,该方法基于一小组策略的占用度量的低维度逼近,并提出了一个有效的算法,可用于在该类策略中找到低过度损失相对于最佳策略的策略。作者限定了平均成本和折扣成本情况下的过量损失,并在队列应用中展示了该方法的有效性。
Jan, 2019
本文通过分析满足特定漂移条件的随机最短路径问题的子类,引入降低可达性的概念,提出了一种构建并求解随机最短路径问题和马尔可夫决策过程的多项式时间算法,经实验验证效果良好。
May, 2022
本文介绍了基于马尔可夫决策过程(MDP)中存在确定性可选动作集合的局限性,提出了一种新的基于随机动作集合的马尔可夫决策过程(SAS-MDP)模型,并针对旧 RL 算法在 SAS-MDP 中可能存在的发散问题,提出了包含独特的方差缩减技术的新的策略梯度算法以及收敛条件,并通过真实用例启发的任务实验表明了该方法的实用性。
Jun, 2019
本文研究如何自动化减少任务的状态表达,以将通用的智能学习机设定为 MDP 框架,从而扩大许多现有强化学习算法和使用它们的机器人的范围,并开发一种形式化的客观标准作为搜索可行 MDPs 的指导,并在算法中将各个部分整合到一起。
Jun, 2009
本文介绍了一种鲁棒的任意学习方法,该方法结合了贝叶斯推断模型和计算稳健策略的方法,以不确定性马尔科夫决策过程(uMDPs)为基础,并通过实验验证了该方法的有效性。
本文提出了两种近似解决因子化马尔可夫决策过程的算法,利用基函数表示近似值函数,其中每个基函数仅涉及一个小的子集,使用类似于变量消除的线性规划分解技术将指数级的 LP 规模缩小到多项式级别。我们的动态规划算法使用 max-norm 近似技术,对于超过 10^40 个状态的问题,我们的算法展示了有希望的可扩展性,并将其与现有的最新技术方法进行了比较,在某些问题上计算时间得到了指数级的提升。
Jun, 2011