马尔可夫成本过程中的 VaR 和 CVaR 估计:下界和上界
本文提出了一种基于样本计算条件风险价值 (CVaR) 的方法,通过统计方法得到了一个新的置信边界来估计 CVaR。该方法和得到的置信边界是基于量化反应的风险价值 (VaR) 估计的经验。
Aug, 2018
本文研究在马尔可夫决策过程中的均值 - CVaR 优化问题,并提出了策略梯度和演员评论算法,以在局部风险敏感的最优策略中更新策略参数,解决了一个最优停止问题。
Jun, 2014
本文研究了使用基于敏感性的优化方法来解决具有长期 CVaR 标准的无限期离散时间 MDP 的最优策略问题,利用伪 CVaR 度量导出了 CVaR 的差分公式并推导出了 CVaR 的局部最优条件和全局最优条件的必要性,提出了一种策略迭代算法并进行数值实验以证明主要结论。
Oct, 2022
该研究使用经验分布和截断法估算 CVaR,得出其轻尾和重尾分布的集中界,并将其应用于多臂老虎机问题中,提出了基于 CVaR 的连续拒绝算法,并利用 CVaR 集中结果导出了算法错误识别概率的上界。
Jan, 2019
研究一种基于条件风险价值(CVaR)的风险规避统计学习框架,提出了基于随机梯度下降的算法。对于凸和 Lipschitz 的损失函数,该算法收敛到最优 CVaR,而对于非凸和平滑的损失函数,该算法在 CVaR 上的泛化界表现良好。通过在各种机器学习任务上进行数值实验,证明了该算法有效地将 CVaR 最小化。
Feb, 2020
本文提出了一种在 MDP 框架下考虑风险和建模误差的决策方法,采用风险敏感条件价值风险 (CVaR) 目标,同时探讨了 CVaR MDP 框架在风险敏感和鲁棒决策制定中的应用,其理论分析和数值实验结果均证明了该方法的实用性和有效性。
Jun, 2015
我们研究了风险敏感的强化学习 (RL),其中我们的目标是通过固定风险容忍度 τ 来最大化条件风险价值 (CVaR)。我们在大规模状态空间中使用 CVaR RL 来拓展推广 CVaR RL,功能逼近必须得到部署。在非线性功能逼近中,我们研究了低秩 MDPs 中的 CVaR RL。低秩 MDPs 假设底层转移核函数具有低秩分解,但与线性模型不同,低秩 MDPs 不假设已知特征或状态 - 动作表示。我们提出了一种新颖的上限信心界 (UCB) 奖励驱动算法,以在 CVaR RL 中精确平衡勘探、开发和表征学习之间的相互作用。我们证明我们的算法可以以样本复杂度 Õ((H^7 A^2 d^4) / (τ^2 ε^2)) 实现 ε- 最优 CVaR,其中 H 是每个 episode 的长度,A 是动作空间的容量,d 是表示的维度。在计算方面,我们为 CVaR 目标设计了一种新颖的离散最小二乘值迭代 (LSVI) 算法作为规划预期,并展示了我们可以在多项式时间内通过最大似然估计规划预期来找到接近最优的策略。据我们所知,这是第一个在低秩 MDPs 中可以被证明的有效的 CVaR RL 算法。
Nov, 2023
基于条件期望的公式,我们提出了一种新的基于采样的 CVaR 梯度估计器,类似于似然比方法。我们分析了估计器的偏差,并证明了相应随机梯度下降算法的收敛性,使 CVaR 优化可以在新的领域应用。例如,我们考虑一个强化学习应用,为 Tetris 游戏学习风险敏感的控制器。
Apr, 2014
本论文提出了一种基于多臂赌博机算法的方法,用于识别在金融行业和不确定环境中具有最小条件风险价值、价值风险价值或条件风险价值加权平均的多臂赌博机,其主要贡献是一种能够适用于包括重尾分布在内的一般分布上的最优算法,匹配了样本所需的预期数量下界,同时开发了新的经验浓度不等式方法以提高估计精度。
Aug, 2020
本文研究了风险受限随机最短路径问题中的条件风险价值,提出了两种基于随机逼近、小批量、策略梯度和重要性采样的本地风险最优策略算法,并将条件风险价值估计过程纳入算法中进行梯度和方差的估计和降低。
May, 2014