基于深度强化学习的车联网边缘计算
本文提出一种基于人工智能的协同计算方法,通过将任务分配和调度算法与决策流程相结合,实现车辆网络中任务的外包与协同计算,进而减少计算服务延迟,提高服务可靠性,并实现服务成本最小化。在复杂的城市交通网络中,基于提出的协同计算方法,仿真结果表明该方法适应高度动态环境且性能表现优异。
Oct, 2020
本文使用深度强化学习的方法解决边缘计算中垂直缩放的问题,为车联网通信提供支持,实验表明,与现有解决方案相比,该方法可以降低至少 23% 的 CPU 使用率,同时增加 24% 的长期收益。
Jan, 2023
我们提出了一种基于强化学习的计算卸载解决方案,它可以在考虑首选深度学习模型选择技术的情况下学习最佳卸载策略,以最小化响应时间同时提供足够的准确性,我们的解决方案在 AWS 和 ARM 核心配置的多个实现中提供 35%的加速,并且最少仅有 0.9%的准确性降低,展示了我们在线学习框架在边缘计算及联云系统中编配深度学习推理的潜力。
Feb, 2022
本文提出了一种数字孪生(DT)辅助的任务卸载框架,用于移动边缘计算卸载策略的优化,基于预测未来计算任务的学习方案,将卸载调度过程建模为马尔可夫决策过程(MDP),以在延迟、能耗和云租用成本之间平衡,以获得最优卸载策略。
Dec, 2021
本文讨论了在移动网络中为实现计算任务的优化,如何通过最优计算分配策略,结合移动设备与 MEC 服务器的计算能力以及移动设备与基站之间的不同状态,达到最大化长期效益性能的效果,并利用 Q 函数分解技术与双深度 Q 网络相结合,实现了随机计算分配的学习算法。
May, 2018
本论文针对汽车间的计算任务卸载环境动态不确定的挑战,提出了一种基于自适应学习的任务卸载算法,在多臂赌博理论基础上,利用邻近车辆的卸载延迟性能进行学习并且能够适应动态环境,实现了分布式协作的任务卸载,并证明了具有子线性的学习遗憾。在综合考虑各种不确定性的条件下,实验结果表明,相比现有的以置信上限为基础的学习算法,该算法使任务卸载延迟性能更优,平均延迟降低了高达 30%。
Jan, 2019
通过在车辆和路边单元之间进行计算任务卸载,车联网中的边缘计算可以减轻车载计算负担。本文提出了一种基于知识驱动的多智能体强化学习方法来降低虚拟空间中基于边缘计算的车联网任务卸载的延迟,通过利用图神经网络整合图结构通信拓扑和置换不变性的领域知识,提高了回报并显示了改进的可扩展性。
Aug, 2023
人工智能和深度神经网络在车辆网络生态系统中的快速发展引入了计算密集型任务,对单个车辆的计算资源需求超过其能力,为解决这一挑战,车辆边缘计算作为一个解决方案应运而生,通过车辆间 / 基础设施之间的通信资源池提供深度神经网络任务的计算服务,本文将 VEC 中的 DNN 划分、任务卸载和资源分配问题建模为动态长期优化问题,目标是在时间上保证系统稳定的同时尽量减少 DNN 任务的完成时间,首先利用 Lyapunov 优化技术将原始的长期优化问题与稳定约束解耦成每个时隙的确定性问题,然后提出了一种基于 Multi-Agent Diffusion-based Deep Reinforcement Learning (MAD2RL) 算法,通过创新性地使用扩散模型来确定最优的 DNN 划分和任务卸载决策,在 MAD2RL 中还将凸优化技术作为子程序加以整合来分配计算资源,提高学习效率,通过对真实世界车辆移动轨迹的模拟,我们证明了我们所提出的算法相对于现有的基准解决方案具有更优越的性能。
Jun, 2024
本文提出了一种基于深度强化学习和马尔科夫决策过程的移动边缘计算系统中的任务卸载策略优化算法。实验结果表明,该算法相比基线策略有了显著的平均成本改善。
Mar, 2018