实现工业物联网中的超低延迟通信的分布式神经线性汤普森抽样框架
通过机器学习技术在5G无线网络中实现非计划URLLC流量传输的研究,提出了一种分布式风险感知机器学习解决方案,从而可以实现计划或非计划URLLC流量的同时满足其严格的延迟和可靠性要求。
Dec, 2018
本文提出了一种新的数字孪生网络(DTN)模型来帮助IIoT系统中的网络拓扑和随机任务到达模型,进而将随机计算卸载和资源分配问题转化为Lyapunov优化问题,并使用异步Actor-Critic算法来找到最优的随机计算卸载策略和提高能源效率。研究结果表明,该方案显著优于基准。
Nov, 2020
本文研究了工业物联网网络中协作深度神经网络推理问题,提出了一种基于深度强化学习的算法,将动态配置物联网设备的采样率、推理任务卸载和边缘计算资源分配共同考虑,通过转化为马尔可夫决策过程来最小化服务延迟并保证准确性。
Dec, 2022
本文探讨了使用强化学习的在线协议合成的概念。 该研究在使用超低复杂度无线收发器的传感器和物联网网络的背景下进行。 该论文介绍了在不同的网络和流量条件下使用RL和Multi Armed Bandit(MAB)(一种特定类型的RL)来进行介质访问控制(MAC)。 该机制不依赖于载波感知、网络时间同步、碰撞检测和其他低级复杂操作,因此非常适合资源受限的传感器和物联网网络中使用的超简单收发器硬件。
Jan, 2023
应用多智能体分层强化学习框架,优化无线资源分配,在5G的超可靠低延迟通信服务中实现更好的性能并减少信号传输和延迟开销,特别适用于工厂自动化场景。
Jul, 2023
通过提出一种名为NOMA-PPO的新型深度强化学习调度算法,本文解决了无线网络中超可靠低延迟通信(URLLC)的问题,也就是在物联网(IoT)应用中施加的严格约束。该方法通过将NOMA-URLLC问题转化为部分可观察马尔可夫决策过程(POMDP)并引入一种代理状态,成功将POMDP转化为马尔可夫决策过程(MDP),并且适应了组合动作空间,同时还利用贝叶斯策略技术融合了先前的知识,结果表明该方法不仅在3GPP场景中优于传统的多路访问协议和DRL基准,而且在各种信道和流量配置下都能有效地利用时间相关性,显示出鲁棒的性能。
Aug, 2023
使用多智能体强化学习框架,协同学习计算卸载决策和多信道访问策略以及相应的信令,通过采用新兴通信协议学习框架解决了基于期限约束的多智能体计算任务合作执行问题,并实验证明了新兴通信对于提高信道访问成功率和成功计算任务数量的效果,同时所提出的任务卸载策略优于远程和本地计算基准。
Jan, 2024
提出了一种基于生成模型的工业AIGC协同边缘学习框架,通过利用真实样本合成和基于边缘的优化功能,实现高效的少样本学习,包括多任务AIGC计算卸载模型和注意力增强的多智能体强化学习算法,最终实现了边缘化AIGC任务完成的系统延迟优化。
May, 2024
提出了一种使用多智能体强化学习的全分布式负载平衡解决方案,通过智能地分布物联网工作负载,在提供公平资源利用的同时优化等待时间,从而最小化等待时间并改善端到端执行延迟。
May, 2024
网络切片技术通过高效利用和管理网络资源,使得工业物联网(IIoT)网络能够满足多种服务和不同资源需求的增长需求。本研究提出了利用图注意力网络构建网络切片的数字孪生环境,实现实时流量分析、监测和需求预测,同时将资源分配问题形式化为联邦多智能体强化学习问题,并采用深度确定性策略梯度来确定资源分配策略,以保护切片的隐私,实验结果表明所提出的方法能够提高网络切片的需求预测准确性并降低动态网络切片的通信开销。
Jun, 2024