无人机网络中的深度神经网络任务分配:一种增强生成人工智能的多智能体强化学习方法
该论文提出一种新的端到端强化学习方法来规划机载无人机收集物联网中的分布式传感器节点的数据,以实现对下一代通信网络的支持。通过训练一个双重深度 Q 网络来实现对不同情况参数的泛化控制,从而使代理可以根据平衡数据收集目标和飞行时间效率的安全约束,在各种场景参数下做出运动决策。
Jul, 2020
本文提出了一种深度神经网络在无人机上的分布式方法,以实现资源受限设备中的数据分类,同时考虑无人机的移动模型和资源约束。模拟表明,所提出的优化方案优于现有的启发式方法和基于服务器的解决方案。
May, 2021
本文研究了无人机供应无线覆盖时的能源效率优化问题,提出了一种基于多智能体去中心化双重深度 Q 网络的算法,优化了每个无人机的三维航迹、连接用户数量和使用能源的协同优化,结果达到比现有基线方法提高 55% 至 80% 的能源效率。
Apr, 2022
本文综述了分布式学习算法在无人机群体中的应用,重点分析了其在通信服务、无线资源分配、用户分配、感知和卫星通信等方面的应用,并介绍了其在无线通信系统中的若干先进应用,并讨论了使用DL-enable的UAV群组所能解决的问题和挑战,同时提出未来的研究方向和开放性问题。
Jan, 2023
本篇论文研究使用多个无人机作为基站,通过联合优化无人机三维轨迹和NOMA功率分配来最大化系统吞吐量,并使用基于加权K-means的聚类算法建立无人机-用户关联,研究表明使用共享的Deep Q-Network在系统吞吐量和训练时间上表现优于传统的DQN,同时还可以收敛于具有不同动作空间的多个智能体,与NOMA的结合可以实现比现有基线方案更好的总速率。
Mar, 2023
人工智能和深度神经网络在车辆网络生态系统中的快速发展引入了计算密集型任务,对单个车辆的计算资源需求超过其能力,为解决这一挑战,车辆边缘计算作为一个解决方案应运而生,通过车辆间/基础设施之间的通信资源池提供深度神经网络任务的计算服务,本文将VEC中的DNN划分、任务卸载和资源分配问题建模为动态长期优化问题,目标是在时间上保证系统稳定的同时尽量减少DNN任务的完成时间,首先利用Lyapunov优化技术将原始的长期优化问题与稳定约束解耦成每个时隙的确定性问题,然后提出了一种基于Multi-Agent Diffusion-based Deep Reinforcement Learning (MAD2RL)算法,通过创新性地使用扩散模型来确定最优的DNN划分和任务卸载决策,在MAD2RL中还将凸优化技术作为子程序加以整合来分配计算资源,提高学习效率,通过对真实世界车辆移动轨迹的模拟,我们证明了我们所提出的算法相对于现有的基准解决方案具有更优越的性能。
Jun, 2024
本研究针对基础设施缺失环境中未知用户位置问题,提出了一种新颖的深度强化学习方案DeepAir。该方案整合了感知、定位、资源分配和多接入边缘计算等步骤,从而实现了在不违反最大容忍延迟的情况下满足任务卸载的服务质量要求。实验表明,DeepAir在使用更少的探测无人机的情况下,能够显著提高任务成功率。
Aug, 2024
本研究解决了多无人机协作追逃游戏中自主决策能力不足的问题,提出了一种基于深度强化学习的模型,以应对复杂游戏环境中的决策挑战。通过引入多环境异步双深度Q网络及优先体验重放算法,显著提高了训练效率,实验结果表明该方法显著提升了无人机的自主决策能力和协作效率。
Nov, 2024
本研究解决了在多无人机网络中如何在未知环境中最大化用户连接性的问题,提出了一种针对任意用户分布的分布式优化方法。通过引入结合卷积神经网络的深度Q学习(MA-CDQL)算法,能够实时分析用户分布并做出最佳决策。研究结果表明,该算法显著提升了用户连接性,相比于K均值方法具有更好的效果。
Nov, 2024
本文提出了一种新颖的依赖感知任务调度策略,旨在解决动态无人机辅助的连接自主车辆(CAVs)在任务完成时面临的调度问题。研究创新地将任务调度作为马尔可夫决策过程,并引入基于扩散的强化学习算法,以实时适应性地调度任务,从而显著减少任务完成时间。
Nov, 2024