简而言之,本文提出了一种针对广义和博弈的、分散、计算高效的算法,其保证所有代理都使用时可以提供次线性遗憾保证,并且不需要代理之间的通信。该算法的主要观察结果是,通过马尔可夫游戏的在线学习基本上可以归结为一种加权遗憾最小化。
Jul, 2022
本文研究了在线学习在没有循环的马尔可夫决策过程中的应用,提出了基于熵正则化方法实现的在线算法并给出了 $\tilde {O}(L|X|\sqrt {|A|T})$ 的遗憾界,通过处理凸性能标准并改进之前的遗憾界,扩展了对抗性 MDP 模型,并可以更好地处理单个 episode 的损失。
May, 2019
在线学习中最小化后悔,满足安全约束的广义元算法,估计未知的安全约束,并将在线学习预测转化为满足未知安全约束的预测,同时使用预测误差、各类模型的复杂度和新的复杂度度量来界定算法的后悔上限,同时提供了线性约束情况下的具体算法,使用比例变换平衡乐观探索和悲观约束满足,最小化根号 T 的后悔。
Mar, 2024
该研究采用在线学习的方法,使用无差别反馈模型对 Vickrey 拍卖中的策略进行建模,对随机模型和对抗模型进行研究并设计相应的出价策略,为参与此类拍卖的竞标者提供了第一个完整的策略集。
Nov, 2015
提出了一种适用于黑盒环境的极限情况的后悔最小化算法,通过以前保证仅实现的限制来实现亚线性的后悔率,并将其应用于逼近 Nash 均衡,学习最佳反应以及安全的对手利用等问题。
Mar, 2021
在线强化学习是研究的主题之一,尤其在线性 Markov 决策过程中使用了对抗性损失和强盗反馈,提出了两个算法以改善后悔性能。
Oct, 2023
本文研究了关于平均奖励随机博弈的在线强化学习算法 UCSG,在同类算法中取得了更好的效果,可以获得亚线性遗憾和稳定收敛的同时检索到均衡状态,提高了博弈的竞争性能。
Dec, 2017
本文提出了一种算法来处理在线学习问题,该算法能够提高在线参与者的表现并创造出令人惊讶的后果,同时也是前人算法的改进。
Feb, 2020
在稀疏线性马尔可夫决策过程中,通过引入一种新的算法 - Lasso fitted Q-iteration, 通过一个具有一定条件的数据策略,以几乎无维度代价实现对在线强化学习的降低,但线性后悔在常用政策情况下仍然无法避免。
Nov, 2020
本文研究了具有未知转换和拥有无限制延迟反馈的分集式马尔可夫决策过程的在线学习,表现出基于策略优化的新算法,在完全信息反馈下实现了接近最优的高概率后悔情况,同时也是第一个考虑具有延迟反馈的 MDP 的后悔最小化设置。
Dec, 2020