基于深度强化学习的流处理通用资源分配
通过将多任务学习应用于机器学习算法中,结合 Elastic Weight Consolidation 和 Gradient Episodic Memory 的方法,并与增强训练数据分布的现有技术进行比较,本研究证明多任务方法对处理医疗领域等特殊需求的稀有重大事件有很高的效果。
Apr, 2023
本文提出了一种基于深度强化学习的分布式资源分配技术,用于多代理环境下的认知无线电网络,该网络通过干扰下动态频谱访问与主干网络共存。该技术是分布式的,且不需要与其他代理协调,通过模拟结果可以显示出,该技术能够在有限的学习时间内,找到使性能在 3%之内的策略。
Oct, 2019
采用深度强化学习方法,通过图神经网络模型实现网络资源的分配,该方法比现有的最佳启发式算法达到更高的接受率;即使在未适当训练的情况下,可以在规模比训练时大 $10^2$ 倍的数据中心网络中保持高性能。
Oct, 2022
本文在最小化数据中心网络中的工作调度时间方面进行了深入研究,提出了一种基于深度强化学习的改进方法并将其扩展到多个服务器群集,结果表明,相比于传统的资源分配算法,深度强化学习方法在各种复杂环境中有着出色的性能表现。
Nov, 2017
本文提出了一种分布式的深度强化学习资源分配技术,针对协作无线电网络所呈现的多智能体环境及其强化学习过程中可能导致的非平稳环境,通过考虑深度强化学习的特定方面,本文的算法能够迭代地收敛于一个平衡政策,其可用于无需与其他代理协调配合的情况下工作。仿真结果表明,与等效的基于 Q 表的 Q 学习算法相比,所提出的技术具有更快的学习性能,并能够在足够长的学习时间内在 99% 的情况下找到最优策略。此外,对于与等效的基于表格的实现相比,仿真结果显示出我们的 DQL 方法只需要不到一半的学习步骤才能实现相同的性能。此外,证明了在未协调交互的多无线电情景中使用标准的单智能体深度强化学习方法可能无法收敛。
May, 2022
我们在本文中解决了一种带有任务转移的在线网络资源分配问题,提出了基于指数加权方法的随机在线算法,证明了该算法具有次线性时间后悔,通过对人工数据进行性能测试并与强化学习方法进行比较表明我们的方法优于后者。
Nov, 2023
本文研究了一个多期的长期资源分配问题,其中每个周期需要一个多阶段的决策过程。我们将此问题定义为具有未知非平稳转换和随机非平稳奖励和资源消耗函数的离散时段有限马尔可夫决策过程的在线资源分配问题。我们提出了一种基于占用度量的等效在线线性规划重构方法,并开发了一种在线镜像下降算法。我们证明,在随机奖励和资源消耗函数下,在线镜像下降算法的期望遗憾值受到了限制。
May, 2023
通过考虑多节点计算资源的协作分配、传输资源块(RB)的分配以及系统的时变动态性,本文旨在通过联合考虑提出一种适用于合作 MEC 辅助的 RAN 切片系统中异构服务需求的最大 SSR 的方法。对系统进行抽象并使用循环图强化学习算法来智能地学习最佳混合 RA 策略,利用图神经网络(GCN)和深度确定性策略梯度(DDPG)有效地提取等效拓扑图的空间特征。此外,还设计了一种新的时间循环强化学习框架,将先前时刻策略网络的动作输出整合到后续时刻策略网络的状态输入中,以适应时变和上下文网络环境。此外,我们探讨了两种使用案例场景,以讨论所提出的 RGRL 算法的普遍优越性。仿真结果表明,所提出的算法在平均 SSR、性能稳定性和网络复杂性方面具有优势。
May, 2024