提供了第一个通用的、效率高的算法,用于解决序列决策中存在的、现有算法在大型连续行动空间中表现不佳的问题,该算法基于(i)监督学习和(ii)行动空间的优化的计算预言,并显示其比标准基线方法表现更好。
Jul, 2022
本文提出了一种新的上下文强化学习算法 NeuralBandit,它不需要对上下文和奖励的稳定性提出假设。该算法使用多个神经网络来建模上下文的价值,并提出了两种基于多专家方法的变体来在线选择多层感知器的参数。该算法在大型数据集上进行了测试,包括奖励稳定和不稳定的情况,并取得了成功的效果。
Sep, 2014
在线商业领域,推荐系统对增强用户体验至关重要。本篇研究论文探讨了基于上下文的强化学习模型 —— 上下文强化学习框架,作为实现个性化推荐的强大工具。我们深入研究了该领域中的挑战、先进算法与理论、协同策略,以及开放性问题和未来前景。与现有相关教程不同,(1)我们专注于上下文强化学习的探索视角,以减轻推荐系统中的 “马太效应”,即物品的热门度导致富者更富、贫者更贫;(2)除了传统的线性上下文强化学习,我们还将专注于神经上下文强化学习,近年来成为重要的分支,从经验和理论两方面探究神经网络如何增进上下文强化学习的个性化推荐;(3)我们将介绍最新的话题 —— 协同神经上下文强化学习,以结合用户异质性和用户相关性,为推荐系统定制;(4)我们将提供和讨论神经上下文强化学习在个性化推荐中的新兴挑战和未解问题,特别是对于大型神经模型。
Dec, 2023
我们创建了一个计算可行的算法,用于具有未知结构的连续操作的上下文强盗问题,并且它与大多数监督学习表示法相结合,我们证明它可以在一般意义下工作,并通过大规模实验验证了新功能。
Jun, 2020
本文介绍了一种上下文赌博算法,它基于奖励估计置信度来检测环境变化并相应地更新其臂选择策略,而严格的上限遗憾分析证明了其在非平凡环境中的学习效果。
May, 2018
本文提出了一个基于上限置信区间的多任务学习算法框架,用于处理具有高任务相似性的上下文型臂带问题,并揭示了此算法在数据中高任务相似性的优势。
May, 2017
我们设计了第一个算法来解决具有资源限制的情境赌博问题,包括具有任意策略集的情境赌博和背包式赌博,并证明了具有接近最优统计属性的遗憾保证。
Feb, 2014
介绍了一种新的多臂赌博机框架 —— 上下文不安定赌博机(CRB),用于复杂的在线决策。该 CRB 框架结合了上下文赌博机和不安定赌博机的核心特征,可以模拟每个臂的内部状态转换以及外部全局环境上下文的影响。使用双重分解方法,我们开发了一个可扩展的指标策略算法来解决 CRB 问题,并对该算法的渐近最优性进行了理论分析。在臂模型未知的情况下,我们进一步提出了一种基于指标策略的基于模型的在线学习算法,同时学习臂模型和做出决策。此外,我们将所提出的 CRB 框架和指标策略算法专门应用于智能电网中的需求响应决策问题。数值模拟实验证明了我们所提出的 CRB 方法的性能和效率。
Mar, 2024
提出了一种平滑遗憾函数的背景自适应算法,可用于大量或连续动作空间下的通用背景自适应问题,并能适应各种光滑度级别的问题,取得了先前优化遗憾函数的最优性保证。
本论文提出 Decision Service,一个支持诸如强化学习等决策任务的通用系统,利用探索、日志、学习和部署这四个系统抽象不断学习并做出实时决策,可广泛应用于内容推荐、技术支持和机器故障处理等各领域,从而大幅降低实现相关算法的技术负债。
Jun, 2016