V2X 网络中资源分配的联邦强化学习
本文研究了细胞 V2X 通信的传输模式选择和资源分配问题,将其制定为马尔可夫决策过程,提出了基于深度增强学习的去中心化算法,同时开发了基于图论的车辆聚类算法和分布式学习算法。实验结果表明,所提出的算法优于其他分布式基线算法,并验证了两个时间尺度的联邦 DRL 算法在新激活的 V2V 对中的优越性。
Feb, 2020
本文基于深度强化学习,开发了一种分散资源分配机制,应用于车对车(V2V)通信中,在无单播和广播场景下均可使用。根据分散的资源分配机制,一个自治体、一个 V2V 链路或一辆车,可以在不要求或等待全局信息的情况下,做出决策,查找传输的最佳子带宽和功率水平。由于所提出的方法是分散的,因此仅产生有限的传输开销。根据仿真结果,每个自治体可以有效地学习,以满足对 V2V 链路的严格延迟约束,同时将干扰降至最低。
May, 2018
本文旨在研究如何实现计算任务从移动代理转移,其提出了一种基于分散决策的机制来促使代理间在博弈与合作之间平衡。为此,该文设计了一个新的多代理在线学习算法,并通过 V2X 应用的模拟得出了良好的收敛性和泛化性能。
Jul, 2022
本文提出了一种新颖的联合传输功率和资源分配方法,旨在实现在车联网中实现超可靠低延迟通信(URLLC),方法采用极端值理论来定义可靠性指标,并利用联邦学习技术,在保证车辆用户(VUEs)的高可靠性的情况下,最小化 VUEs 的网络广泛功耗。
May, 2018
提出了一种处理异构用户设备数据的联邦学习算法,同时结合对微波资源分配问题的优化,实现了收敛速率和能耗之间的平衡,并用 Tensorflow 实验验证了该算法的理论分析和优化表现。
Oct, 2019
本文提出资源配额新框架(Resource Rationing)是一种针对无线联邦学习的资源调配方法,旨在平衡学习周期内的资源以明确其对联邦学习性能的集体影响,并可以与现有资源配置方案无缝集成,以优化联邦学习的收敛,此新框架的 “后来者优先” 原则在几个无线联邦学习实例中得到验证,同时提出值得追求的技术挑战和研究机会,突出了将新兴联邦学习视为新的服务类别,具有其特定特征,以及为该特殊服务设计通信算法的好处。
Apr, 2021
自动驾驶领域的研究中,利用人工智能和机器学习进行车联网联合学习,通过智能车辆收集到的大量数据,在保护数据隐私和优化通信资源使用的同时,通过调度车辆的计算和传输,利用估算的无线电环境地图,协调全球模型学习,并达到降低训练时间和提高模型更新效率的目标。
Nov, 2023
因为传统的车联网在上传到云处理中会有延迟,所以为了解决这一问题并提高系统性能,引入了边缘计算,在此基础上采用联邦学习,其中异步联邦学习则采用深度强化学习作为车辆的选择问题模型,模拟结果表明有效提高了全局模型聚合的准确性。
Apr, 2023
本文提出了一种基于联邦深度强化学习的算法,用于解决在 F-RAN 中动态计算卸载和资源分配问题,通过联邦学习,可以在保护用户隐私的同时,降低训练过程的计算复杂度,结果表明,该算法相对于其他现有策略,可以更快地实现更低的任务执行延迟和设备端能耗。
Jun, 2022