基于深度强化学习的 V2N 服务扩展
本论文提出一种去中心化的方法,解决了服务任务分配和边缘资源扩展的紧密耦合的问题。文章通过模拟实际的 C-V2N 流量数据集,对该方法进行了基准测试,并将其性能与现有方法进行了比较,结果表明基于 DDPG 的解决方案优于现有解决方案,满足 C-V2N 服务的低延迟要求。
May, 2023
提出了一个基于深度强化学习的知识驱动服务卸载决策框架,用于解决车辆互联网中多任务服务的卸载问题,并使用仿真实验证明此框架具有快速收敛、适应环境变化和优于贪心算法的性能优势。
Dec, 2018
本文提出了一种基于深度强化学习的动态服务部署框架,旨在最小化最大边缘资源使用率和服务延迟,同时考虑车辆的移动性、需求变化和不同类型服务请求的动态性。通过使用 SUMO 和 MATLAB 进行模拟实验,结果表明该方法有效且优于其他静态和动态部署方法。
Jun, 2021
本论文提出了一种基于知识辅助的深度强化学习算法来设计第五代(5G)移动通信网络中的无线调度器,利用理论模型提出了理论的强化学习框架,在线离线相结合的方式实现了知识辅助 DDPG 算法,通过模拟实验和实际测试证明了该方法在收敛时间和 QoS 性能方面都优于现有方案,减少了 30%~50% 的数据包丢失率。
Sep, 2020
人工智能和深度神经网络在车辆网络生态系统中的快速发展引入了计算密集型任务,对单个车辆的计算资源需求超过其能力,为解决这一挑战,车辆边缘计算作为一个解决方案应运而生,通过车辆间 / 基础设施之间的通信资源池提供深度神经网络任务的计算服务,本文将 VEC 中的 DNN 划分、任务卸载和资源分配问题建模为动态长期优化问题,目标是在时间上保证系统稳定的同时尽量减少 DNN 任务的完成时间,首先利用 Lyapunov 优化技术将原始的长期优化问题与稳定约束解耦成每个时隙的确定性问题,然后提出了一种基于 Multi-Agent Diffusion-based Deep Reinforcement Learning (MAD2RL) 算法,通过创新性地使用扩散模型来确定最优的 DNN 划分和任务卸载决策,在 MAD2RL 中还将凸优化技术作为子程序加以整合来分配计算资源,提高学习效率,通过对真实世界车辆移动轨迹的模拟,我们证明了我们所提出的算法相对于现有的基准解决方案具有更优越的性能。
Jun, 2024
本文研究了细胞 V2X 通信的传输模式选择和资源分配问题,将其制定为马尔可夫决策过程,提出了基于深度增强学习的去中心化算法,同时开发了基于图论的车辆聚类算法和分布式学习算法。实验结果表明,所提出的算法优于其他分布式基线算法,并验证了两个时间尺度的联邦 DRL 算法在新激活的 V2V 对中的优越性。
Feb, 2020
我们研究并开发了一种深度强化学习(DRL)方法,用于自适应流量路由,该方法利用深度图卷积神经网络(DGCNN)在 DRL 框架中学习流量行为,并通过 Q 值估计选择路由路径,实现对流量动态的快速适应。与 OSPF 协议相比,实验结果表明了该框架的有效性和适应性,在增加网络吞吐量高达 7.8% 和减少 16.1% 的流量延迟方面取得了显著效果。
Feb, 2024
本文探讨了一种分散式的深度强化学习方法来优化移动边缘计算系统中的任务卸载策略,并分析了功耗和延迟之间的权衡关系。结果表明,该方法比传统的深度 Q 网络方法以及其他贪心策略能够更有效地降低资源消耗成本。
Dec, 2018
本文研究了基于深度强化学习的无模型无需解析解的动力控制方案在跨单元合作、离线 / 在线集中训练和分布式执行等方面的数学分析和具体实现。 分析和仿真结果表明,DRL 设计在性能、鲁棒性和广泛可用性方面优于基于模型的方法,特别是 actor-critic 深度确定性策略梯度算法,可用于现有资源分配方案。
Jan, 2019
本文针对 5G 及更高版本中的高复杂度无线资源管理问题,通过引入基于深度强化学习的云计算和分布式决策方案,并结合压缩算法和空间迁移学习,提出一种实现绿色深度强化学习的架构和算法,为实现绿色智能设备带来了潜在的解决方案。
Oct, 2019