GA-DRL:图神经网络辅助深度强化学习用于动态车联网中的 DAG 任务调度
本研究设计了一种新的基于边生成调度(EGS)的有向无环图(DAG)调度框架,使用基于平凡调度性测试的调度性测试方法并结合深度强化学习算法和图表示神经网络来高效生成边缘,并通过与现有的 DAG 调度启发式算法和优化的混合整数线性规划基准进行比较,实验结果表明该算法在安排相同的 DAG 任务时需要较少的处理器。
Aug, 2023
人工智能和深度神经网络在车辆网络生态系统中的快速发展引入了计算密集型任务,对单个车辆的计算资源需求超过其能力,为解决这一挑战,车辆边缘计算作为一个解决方案应运而生,通过车辆间 / 基础设施之间的通信资源池提供深度神经网络任务的计算服务,本文将 VEC 中的 DNN 划分、任务卸载和资源分配问题建模为动态长期优化问题,目标是在时间上保证系统稳定的同时尽量减少 DNN 任务的完成时间,首先利用 Lyapunov 优化技术将原始的长期优化问题与稳定约束解耦成每个时隙的确定性问题,然后提出了一种基于 Multi-Agent Diffusion-based Deep Reinforcement Learning (MAD2RL) 算法,通过创新性地使用扩散模型来确定最优的 DNN 划分和任务卸载决策,在 MAD2RL 中还将凸优化技术作为子程序加以整合来分配计算资源,提高学习效率,通过对真实世界车辆移动轨迹的模拟,我们证明了我们所提出的算法相对于现有的基准解决方案具有更优越的性能。
Jun, 2024
我们研究并开发了一种深度强化学习(DRL)方法,用于自适应流量路由,该方法利用深度图卷积神经网络(DGCNN)在 DRL 框架中学习流量行为,并通过 Q 值估计选择路由路径,实现对流量动态的快速适应。与 OSPF 协议相比,实验结果表明了该框架的有效性和适应性,在增加网络吞吐量高达 7.8% 和减少 16.1% 的流量延迟方面取得了显著效果。
Feb, 2024
本研究提出了一种利用图神经网络和深度强化学习相结合的图强化学习方法,以提高自主车辆互动交通场景下的决策生成精度。在实验验证中,该方法能够提取交互情景特征,并生成更好的合作行为。
Jan, 2022
本篇论文提出在 Deep Reinforcement Learning 技术中,将 Graph Neural Networks 集成进 DRL 代理中,以解决网络拓扑的泛化问题,并在路由优化的用例中测试并评估其性能,结果表明,在未曾训练过的网络拓扑中,DRL+GNN 代理能够胜过目前最先进的解决方案。
Oct, 2019
本文使用深度强化学习的方法解决边缘计算中垂直缩放的问题,为车联网通信提供支持,实验表明,与现有解决方案相比,该方法可以降低至少 23% 的 CPU 使用率,同时增加 24% 的长期收益。
Jan, 2023
本文提出一种名为 Graph Temporal Attention with Reinforcement Learning (GTA-RL) 的新型框架,针对动态组合优化问题学习启发式解决方案。该框架结构包括一个能够嵌入组合问题实例的时间特征的编码器和一个能够动态聚焦于嵌入特征以找到所需组合问题实例的解码器,并针对实时版本组合优化问题进行了扩展。实验证明,与现有方法相比,该方法在动态和实时图组合优化方面具有更高的效率和优化求解器的有效性。
Jan, 2022
本研究提出了一种基于 DRL 和 GCN 的分布式学习算法,使代理人能够通过从环境中获取反馈来改进投标策略并增加利润,同时将空间系统拓扑的信息输入到 GCN 中,帮助代理人了解系统结构并提高决策的准确性。在 IEEE 30-bus 系统和 IEEE 39-bus 系统的测试中表明该算法具有较好的泛化能力和更高的利润。
Aug, 2022