面向移动用户与自主车辆的通信感知一致性边缘选择
本文提出一种基于人工智能的协同计算方法,通过将任务分配和调度算法与决策流程相结合,实现车辆网络中任务的外包与协同计算,进而减少计算服务延迟,提高服务可靠性,并实现服务成本最小化。在复杂的城市交通网络中,基于提出的协同计算方法,仿真结果表明该方法适应高度动态环境且性能表现优异。
Oct, 2020
本文提出一个基于强化学习的框架,以最小化道路碰撞、最大化通信数据速率的目标,同时优化自动驾驶车辆的网络选择和驾驶策略。通过将问题转化为马尔可夫决策过程并基于深度Q学习来优化加速度、减速度、变道和车辆-基站分配等行为,实现了安全驾驶和以改进的连通性。
Aug, 2022
本文使用深度强化学习的方法解决边缘计算中垂直缩放的问题,为车联网通信提供支持,实验表明,与现有解决方案相比,该方法可以降低至少 23% 的 CPU 使用率,同时增加 24% 的长期收益。
Jan, 2023
本论文提出一种去中心化的方法,解决了服务任务分配和边缘资源扩展的紧密耦合的问题。文章通过模拟实际的 C-V2N 流量数据集,对该方法进行了基准测试,并将其性能与现有方法进行了比较,结果表明基于 DDPG 的解决方案优于现有解决方案,满足 C-V2N 服务的低延迟要求。
May, 2023
通过建模任务图离线计算为马尔可夫决策过程,并设计了一种深度强化学习算法(SATA-DRL)来提供用户体验,以适应环境变化。大量模拟验证表明,SATA-DRL在减少平均完成时间和截止时间违规方面优于现有策略。
Sep, 2023
本文基于航天工业的冗余原则,提出在V2X技术中引入多种无线接入技术,通过在复杂变化的通道和交通条件下使用深度强化学习算法解决垂直切换问题,并通过实验结果验证了这种方法能够降低通信成本并提高可靠性。
Oct, 2023
人工智能和深度神经网络在车辆网络生态系统中的快速发展引入了计算密集型任务,对单个车辆的计算资源需求超过其能力,为解决这一挑战,车辆边缘计算作为一个解决方案应运而生,通过车辆间/基础设施之间的通信资源池提供深度神经网络任务的计算服务,本文将VEC中的DNN划分、任务卸载和资源分配问题建模为动态长期优化问题,目标是在时间上保证系统稳定的同时尽量减少DNN任务的完成时间,首先利用Lyapunov优化技术将原始的长期优化问题与稳定约束解耦成每个时隙的确定性问题,然后提出了一种基于Multi-Agent Diffusion-based Deep Reinforcement Learning (MAD2RL)算法,通过创新性地使用扩散模型来确定最优的DNN划分和任务卸载决策,在MAD2RL中还将凸优化技术作为子程序加以整合来分配计算资源,提高学习效率,通过对真实世界车辆移动轨迹的模拟,我们证明了我们所提出的算法相对于现有的基准解决方案具有更优越的性能。
Jun, 2024
本文建立了一个多任务数字孪生车联网(Vehicle Edge Computing, VEC)网络,通过使用数字孪生技术为每辆车的多个任务开发卸载策略和资源分配策略,在单个时隙中构建了一个优化问题,并提出了一个多智能体强化学习方法来解决任务卸载和资源分配的问题。大量实验表明,与其他基准算法相比,我们的方法是有效的。
Jul, 2024
车辆边缘计算是一种新兴技术,在车联网领域具有重要潜力,通过使车辆在本地执行密集的计算任务或将其转移到附近的边缘设备来提供支持。为了解决由于建筑物等障碍物导致通信链路质量严重恶化而妨碍卸载过程的挑战,本研究引入了可重构智能表面 (Reconfigurable Intelligent Surfaces, RIS),通过动态调整RIS的相移来大幅提高车辆边缘计算系统的性能。在本工作中,考虑了RIS辅助的车辆边缘计算系统,并设计了一种优化方案,包括本地执行功率、卸载功率和RIS相移,考虑了随机任务到达和信道变化。为了解决这个方案,我们提出了一种创新的深度强化学习 (Deep Reinforcement Learning, DRL) 框架,结合了深度确定策略梯度 (Deep Deterministic Policy Gradient, DDPG) 算法,用于优化RIS相移系数,以及多智能体深度确定策略梯度 (Multi-Agent Deep Deterministic Policy Gradient, MADDPG) 算法,用于优化车辆用户的功率分配。仿真结果表明,我们提出的方案优于传统的集中式DDPG、Twin Delayed Deep Deterministic Policy Gradient (TD3)和一些典型的随机方案。
Jul, 2024