本文研究无线网络中具备能量收割功能和多个 MEC 设备 (IoT) 的计算卸载,提出了基于强化学习的计算卸载框架,包括基于 Q-learning 的 hotbooting 计算卸载方案和基于 DQN 的快速计算卸载方案,针对不同的 MEC 场景给出了性能界限,并使用模拟结果验证算法效果。
Dec, 2017
本文提出了一种基于强化学习的资源管理算法,用于将可再生能源纳入移动边缘计算中,在动态负载卸载和边缘服务器供应方面实现最优策略,以最小化系统成本和延迟,并通过模拟结果验证了算法的有效性。
Mar, 2017
本文提出了一种基于深度强化学习和马尔科夫决策过程的移动边缘计算系统中的任务卸载策略优化算法。实验结果表明,该算法相比基线策略有了显著的平均成本改善。
Mar, 2018
基于深度强化学习和边缘计算的优化控制系统,通过云边协同合作,在边缘部署轻量级策略网络,预测系统状态,以高频输出控制,实现对工业目标的监控和优化,并设计了动态资源分配机制,确保边缘计算资源的合理调度,实现全局优化,证明了该方法减少了云边通信延迟,加速对异常情况的响应,降低系统故障率,延长设备平均运行时间,节省了人工维护和更换的成本,从而确保了实时和稳定的控制。
Feb, 2024
我们提出了一种基于强化学习的计算卸载解决方案,它可以在考虑首选深度学习模型选择技术的情况下学习最佳卸载策略,以最小化响应时间同时提供足够的准确性,我们的解决方案在 AWS 和 ARM 核心配置的多个实现中提供 35%的加速,并且最少仅有 0.9%的准确性降低,展示了我们在线学习框架在边缘计算及联云系统中编配深度学习推理的潜力。
Feb, 2022
本研究提出了一种使用强化学习解决最小化网络延迟和边缘服务器数量的问题的新 RL 框架,该问题涉及云计算、多接入边缘计算、组合优化问题和马尔可夫决策过程。
本文讨论了在移动网络中为实现计算任务的优化,如何通过最优计算分配策略,结合移动设备与 MEC 服务器的计算能力以及移动设备与基站之间的不同状态,达到最大化长期效益性能的效果,并利用 Q 函数分解技术与双深度 Q 网络相结合,实现了随机计算分配的学习算法。
May, 2018
本文旨在设计一种任务调度策略,以最小化所有任务的离线和计算延迟,同时满足无人机能源容量约束下的延迟导向物联网服务需求,并考虑到任务到达动态变化的情况,提出了基于风险敏感的强化学习算法来解决能耗风险约束下的决策问题。
Oct, 2020
本文提出了一种基于深度强化学习的在线边缘计算离线策略,在自适应调整参数的基础上有效减少了计算时间,提高了计算性能。
Aug, 2018
提出了一个基于深度强化学习的知识驱动服务卸载决策框架,用于解决车辆互联网中多任务服务的卸载问题,并使用仿真实验证明此框架具有快速收敛、适应环境变化和优于贪心算法的性能优势。
Dec, 2018