为了优化城市资源分配,本文研究了基于 Deep RL 方法对于资源分配的约束条件以及对模拟器的表现
Dec, 2018
通过采用强化学习技术,本文提出了一个解决编译机器学习程序中内存映射问题的新方法,称之为 mallocMuZero 算法,并将其应用在 ML 加速器上以缩短执行时间,表现优于目前的默认求解器。
May, 2023
通过将多任务学习应用于机器学习算法中,结合 Elastic Weight Consolidation 和 Gradient Episodic Memory 的方法,并与增强训练数据分布的现有技术进行比较,本研究证明多任务方法对处理医疗领域等特殊需求的稀有重大事件有很高的效果。
Apr, 2023
本文介绍深度学习在车联网中用于资源分配的关键动因和障碍,并回顾了近期在利用深度学习哲学解决无线资源分配问题方面取得的重要成果。通过深度强化学习和优化技术,探究当前设计方法所面临的挑战,并提出未来资源分配研究的一些方向。
Jul, 2019
本文提出了一种基于深度强化学习的分布式资源分配技术,用于多代理环境下的认知无线电网络,该网络通过干扰下动态频谱访问与主干网络共存。该技术是分布式的,且不需要与其他代理协调,通过模拟结果可以显示出,该技术能够在有限的学习时间内,找到使性能在 3%之内的策略。
Oct, 2019
本文提出了一种分布式的深度强化学习资源分配技术,针对协作无线电网络所呈现的多智能体环境及其强化学习过程中可能导致的非平稳环境,通过考虑深度强化学习的特定方面,本文的算法能够迭代地收敛于一个平衡政策,其可用于无需与其他代理协调配合的情况下工作。仿真结果表明,与等效的基于 Q 表的 Q 学习算法相比,所提出的技术具有更快的学习性能,并能够在足够长的学习时间内在 99% 的情况下找到最优策略。此外,对于与等效的基于表格的实现相比,仿真结果显示出我们的 DQL 方法只需要不到一半的学习步骤才能实现相同的性能。此外,证明了在未协调交互的多无线电情景中使用标准的单智能体深度强化学习方法可能无法收敛。
May, 2022
基于相似性的双阶段任务分配算法利用强化学习来学习优化分配策略,有效解决了动态任务分配的挑战,并具有良好的性能和零样本泛化能力。
Jun, 2024
本文综述了针对动态环境模型的强化学习方法,目的是在学习过程中最小化奖励损失或找到适当的策略以实现在不断变化的操作条件下智能体的适应,并讨论了这些方法的优缺点以及未来的改进方向。
May, 2020
我们在本文中解决了一种带有任务转移的在线网络资源分配问题,提出了基于指数加权方法的随机在线算法,证明了该算法具有次线性时间后悔,通过对人工数据进行性能测试并与强化学习方法进行比较表明我们的方法优于后者。
Nov, 2023
本文提出了一个学习框架来优化无线网络的频谱和功率分配,使用两种分别针对离散和连续变量的强化学习算法来同时执行和训练,模拟结果表明该方案优于基于分数规划的算法和以往基于深度强化学习的解决方案。
Dec, 2020