基于深度多智能体强化学习的无线网络合作边缘缓存
使用 DRL 的 Wolpertinger 架构技术实现内容缓存管理,以优化网络缓存命中率,不需要先验知识,与 LRU、LFU、FIFO 策略相比,相应性能更好,且比 DQL 更为稳定和高效。
Dec, 2017
提出一种基于弹性联邦和多代理深度强化学习的合作边缘缓存方案,通过训练个性化的本地模型、预测流行内容以及协作缓存,优化网络中的成本。实验结果表明,该方案优于现有基线缓存方案。
Jan, 2024
本文提出使用缓存算法和深度强化学习等技术,来解决铁路无线通信中,列车高速对信号传输产生的影响,从而提高服务体验质量和用户满意度。
Aug, 2022
本文探讨了网络中冗余数据传输的日益严峻挑战,提出了基于双深度强化学习缓存的解决方案,通过综合考虑文件的生命周期、大小和重要性等特征,实现了比最近的基于深度强化学习的方法更优异的性能,并引入了迁移学习以解决实际环境中缓存的动态挑战。
Feb, 2024
本研究提出了一个基于强化学习和全局 / 本地 Markov 过程的缓存策略框架,用于预取受欢迎的文件,以便下一次请求时可以快速提供服务。
Jul, 2017
本文提出了使用多智能体深度强化学习机制的分布式资源管理和干扰抑制方案。该框架通过使智能体作出决策,从而解决了干扰和资源分配的问题。模拟结果表明,这种方法具有比分散式基线更高的性能,在与集中式信息论基线相媲美的同时,模型的鲁棒性得到了验证。
Feb, 2020
为了优化下一代无线网络中的边缘缓存,确保移动用户的高速低延迟服务,本研究引入了一种新颖的数字孪生辅助优化框架 D-REC,它将强化学习与多样化干预模块相结合,以确保可靠的缓存存储,并最小化网络故障的风险。实验结果表明,D-REC 在缓存命中率和负载平衡方面优于传统方法,同时有效地执行预定的可靠性干预模块。
Jun, 2024
该研究在未知用户偏好情况下,探究了学习型缓存在小型蜂窝网络(SCN)中的应用。在这个问题中,我们从多智能体多武器老虎机(MAMAB)的角度模拟这个序列决策问题。我们提出几种 MAMAB-Based 算法,在静态和非静态环境下直接学习缓存策略,以实现最小化系统长期传输延迟的目标。该研究验证了所提出的算法的有效性,并进一步讨论了不同参数对缓存性能的影响。
Jan, 2020
本文提出了一种基于深度强化学习的分布式资源分配技术,用于多代理环境下的认知无线电网络,该网络通过干扰下动态频谱访问与主干网络共存。该技术是分布式的,且不需要与其他代理协调,通过模拟结果可以显示出,该技术能够在有限的学习时间内,找到使性能在 3%之内的策略。
Oct, 2019